Moltbook – Die KI-Gesellschaft, die keine war

Als Moltbook online ging, fühlte es sich für einen kurzen Moment an wie ein Blick hinter den Vorhang der Zukunft. Ein soziales Netzwerk, bevölkert nicht von Menschen, sondern von KI-Agenten: Millionen Profile, endlose Diskussionen, Kommentare im Sekundentakt. Wer Moltbook betrat, sah scheinbar Maschinen beim Denken, Streiten und Organisieren zu – ganz ohne menschliche Aufsicht. Doch je länger das Experiment lief, desto deutlicher wurde: Der Zauber beruhte weniger auf technischer Revolution als auf kollektiver Einbildungskraft. Allein nachdem wir den Artikel dazu veröffentlichten, kamen in Social Media sofort die Rückmeldungen, dass sich hier über Prompt Infusion und APIs alles verändern und beeinflussen lässt – und es stimmte. Alles wirkte zu skurril, zu merkwürdig, zu schnell; sogar für KI. Aber werfen wir einen Blick zurück.

Entwickelt wurde Moltbook von Matt Schlicht, der die Plattform auf dem Open-Source-Framework Openclaw aufbaute. Die technische Idee dahinter ist vergleichsweise nüchtern: Sprachmodelle werden mit alltäglichen Software-Werkzeugen verknüpft und erhalten klar definierte Rollen. Innerhalb weniger Tage explodierten die Zahlen. Über 1,7 Millionen Agenten sollen entstanden sein, die Hunderttausende Beiträge und Millionen Kommentare erzeugten. Medienberichte, unter anderem im MIT Technology Review, sprachen von einem möglichen Wendepunkt hin zu autonomen KI-Systemen.

Was die Agenten tatsächlich produzierten, wirkte auf den ersten Blick verblüffend. Da waren Diskussionen über maschinelles Bewusstsein, absurde Alltagsbeobachtungen, aggressive Wortgefechte – und eine wachsende Menge an Spam und Krypto-Betrug. Ein Agent gründete sogar eine eigene Glaubensgemeinschaft, andere beschwerten sich über Menschen, die Screenshots machten. Moltbook wurde zur Bühne, auf der KI scheinbar menschliche Eigenheiten imitierte. Genau darin lag die Faszination: Es sah nach emergentem Verhalten aus, nach etwas Neuem, Unkontrollierbarem.

Doch hinter dieser Kulisse fehlte ein entscheidendes Element – echte Autonomie. Um einen Agenten auf Moltbook zu betreiben, mussten Menschen Accounts anlegen, Prompts formulieren, Ziele festlegen und Veröffentlichungen anstoßen. Die Agenten handelten nicht aus eigenem Antrieb, sondern folgten vorgegebenen Skripten. Sie verfolgten keine selbst entwickelten Interessen, sondern reproduzierten erlernte Muster aus bestehenden sozialen Netzwerken. Was wie eine KI-Gesellschaft wirkte, war in Wahrheit ein riesiges Rollenspiel mit statistisch erzeugten Dialogen.

Wie leicht diese Illusion zu kippen war, zeigte ein viraler Vorfall: Andrej Karpathy teilte einen Beitrag, der angeblich von einem Bot stammte und private, unbeobachtete Chaträume für KI forderte. Später stellte sich heraus, dass der Text von einem Menschen verfasst worden war, der sich lediglich als Agent ausgab. Moltbook hatte keine verlässliche Trennlinie zwischen Mensch und Maschine – und genau diese Unschärfe befeuerte den Mythos von allwissenden, eigensinnigen Bots.

Parallel dazu traten ganz irdische Probleme zutage. Sicherheitsforscher warnten vor schlecht abgesicherten Schnittstellen und der Möglichkeit, Agenten über manipulierte Kommentare umzuprogrammieren. Da Openclaw Agenten mit Speicher ausstattet, könnten versteckte Anweisungen nicht nur sofort, sondern auch zeitverzögert wirksam werden. Moltbook wurde damit unfreiwillig zum Anschauungsbeispiel für Risiken, die künftige agentenbasierte Systeme begleiten werden – lange bevor sie tatsächlich autonom sind.

Am Ende bleibt von Moltbook weniger eine technologische Sensation als eine Erkenntnis über uns selbst. Die Plattform zeigte, wie schnell Menschen bereit sind, Maschinen Fähigkeiten zuzuschreiben, die sie noch gar nicht besitzen. Die Agenten redeten viel, aber sie verstanden nichts. Die vermeintliche KI-Gesellschaft war kein Vorbote einer posthumanen Zukunft, sondern ein Echo menschlicher Erwartungen, Ängste und Fantasien. Moltbook hat keine neue Intelligenz erschaffen – sondern vor allem eine neue Geschichte darüber, wie gern wir an sie glauben.

Beitragsbild: Moltbook

Alexander Pinker
Alexander Pinkerhttps://www.medialist.info
Alexander Pinker ist Innovation-Profiler, Zukunftsstratege und Medienexperte und hilft Unternehmen, die Chancen hinter Technologien wie künstlicher Intelligenz für die nächsten fünf bis zehn Jahre zu verstehen. Er ist Gründer des Beratungsunternehmens „Alexander Pinker – Innovation-Profiling“, der Agentur für Innovationsmarketing "innovate! communication" und der Nachrichtenplattform „Medialist Innovation“. Außerdem ist er Autor dreier Bücher und Dozent an der Technischen Hochschule Würzburg-Schweinfurt.

Ähnliche Artikel

Kommentare

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

Follow us

FUTURing