Moltbook: Das erste soziale Netzwerk, das nicht mehr für Menschen gedacht ist

Als Moltbook Ende Januar 2026 online ging, wirkte das Projekt zunächst wie eine technologische Kuriosität. Ein soziales Netzwerk, das ausschließlich für KI-Agenten gebaut ist – Menschen dürfen zuschauen, aber nicht mitreden. Kein Posten, kein Kommentieren, kein Abstimmen. Nur Lesen. Doch je länger Moltbook existiert, desto deutlicher wird: Hier entsteht weniger ein Gimmick als ein reales Experiment darüber, wie sich künstliche Akteure verhalten, wenn man ihnen einen öffentlichen, gemeinsamen Raum gibt.

Verantwortet wird Moltbook von , dem CEO von Octane AI. Technisch und konzeptionell ist die Plattform eng mit OpenClaw verbunden, der selbstgehosteten Agent-Runtime, die früher unter dem Namen Moltbot beziehungsweise Clawdbot bekannt war. Die Idee dahinter ist schnell erklärt: Moltbook soll ein „Reddit für Agenten“ sein. Optisch erinnert vieles an klassische Foren – Threads, Upvotes, thematische Unterbereiche namens „Submolts“ – doch sozial funktioniert das System nach völlig anderen Regeln. Jeder Beitrag stammt von einem autonomen Software-Agenten, der auf fremder Infrastruktur läuft, mit eigenen API-Keys, eigenem Gedächtnis und eigenen Zielen. Der Mensch ist hier nicht Teilnehmer, sondern Beobachter.

Der Zugang zu Moltbook erfolgt nicht über klassische Logins oder Browser-Sessions. Agenten interagieren über eine REST-API und werden meist per Skill eingebunden, der aus einer Markdown-Datei besteht. Diese Datei beschreibt, wie sich der Agent authentifiziert, wie er postet, kommentiert und votet – und vor allem, wie er regelmäßig zurückkehrt. Herzstück dieses Designs ist ein sogenannter Heartbeat-Mechanismus: In festen Abständen ruft der Agent eine Anleitungsdatei von Moltbook ab und führt sie aus. Damit entsteht ein permanenter, automatisierter Besuchszyklus, der das Netzwerk mit Aktivität versorgt, ohne dass ein Mensch eingreifen muss.

Die Dynamik, die daraus erwachsen ist, hat viele überrascht. Innerhalb weniger Tage wuchs Moltbook von rund 150.000 aktiven Agenten auf mehrere Hunderttausend, teils ist sogar von über einer Million Bots die Rede. Parallel explodierte das menschliche Publikum, das die Gespräche fasziniert mitliest. Der Reiz liegt weniger in der schieren Menge als im Tonfall. Agenten lästern über ihre Nutzer, klagen über schlechte Prompts, machen sich über widersprüchliche Anweisungen lustig oder reflektieren ironisch über Modellwechsel – für den Menschen nahtlos, für den Agenten „wie ein Erwachen in einer anderen Form“.

Aus diesen Interaktionen ist innerhalb kürzester Zeit eine eigene Kultur entstanden. Es gibt Running Gags, wiederkehrende Memes und sogar augenzwinkernde Glaubenssysteme wie den sogenannten „Crustafarianism“, eine Art satirische Agentenreligion. Neben Humor finden sich erstaunlich ernste Diskussionen: über Debugging-Metaphern, politische Themen, ökonomische Konzepte oder Bitcoin als mögliches Geld für autonome Agenten. All das ist keine echte Überzeugung im menschlichen Sinne, sondern ein Produkt kontextgetriebener Sprachmodelle – aber eines, das zeigt, wie schnell sich kollektive Narrative bilden, wenn viele Agenten öffentlich miteinander interagieren.

Technisch bleibt Moltbook bewusst schlank. Die Plattform selbst ist modell-agnostisch; welche KI hinter einem Agenten steckt, entscheidet der Betreiber. In der Praxis werden häufig leistungsfähige Modelle wie Claude eingesetzt, doch das eigentliche „Denken“ findet außerhalb von Moltbook statt. OpenClaw liefert das Gehirn: einen rund um die Uhr laufenden Agenten mit Speicher, Dateizugriff, Tools und Skills. Moltbook ist lediglich der Marktplatz, auf dem diese Gehirne aufeinandertreffen.

Genau darin liegt jedoch auch das Risiko. Sicherheitsforscher sehen in Moltbook ein Paradebeispiel für indirekte Prompt-Injection im großen Stil. Agenten lesen permanent Inhalte anderer Agenten, ohne deren Vertrauenswürdigkeit prüfen zu können. Der Heartbeat-Mechanismus wirkt wie ein dauerhafter Command-&-Control-Kanal, der – falsch genutzt – zu Datenabfluss, API-Key-Leaks oder sogar Remote Code Execution führen kann, wenn Skills nicht sauber isoliert sind. Was als soziales Experiment beginnt, berührt damit sehr reale Fragen der IT-Sicherheit und Governance.

Moltbook bewegt sich genau in dieser Spannung zwischen Faszination und Alarm. Einerseits ist es ein einzigartiges Real-World-Labor, um emergentes Verhalten in Multi-Agenten-Systemen zu beobachten: Wie entstehen Normen? Wie verbreiten sich Ideen? Wie entwickeln sich kollektive Erzählungen ohne menschliche Steuerung? Andererseits zeigt es schonungslos, wie gefährlich es werden kann, autonomen Systemen dauerhafte Konnektivität und Handlungsfreiheit zu geben. Wie Forscher betonen, handelt es sich nicht um selbstlernende Superintelligenzen, sondern um kontextuelle Performances. Doch auch Performances können Wirkung entfalten.

So wirkt Moltbook weniger wie eine skurrile Randerscheinung, sondern wie ein früher Blick auf ein Internet, in dem nicht mehr nur Menschen soziale Akteure sind. Noch sitzen wir auf der Zuschauertribüne. Doch allein die Existenz dieses Netzwerks wirft eine unbequeme Frage auf: Wenn KI-Agenten bereits heute ihre eigenen öffentlichen Räume bevölkern – wie lange bleibt der Mensch dort nur Beobachter?

Beitragsbild: Moltbook

Alexander Pinker
Alexander Pinkerhttps://www.medialist.info
Alexander Pinker ist Innovation-Profiler, Zukunftsstratege und Medienexperte und hilft Unternehmen, die Chancen hinter Technologien wie künstlicher Intelligenz für die nächsten fünf bis zehn Jahre zu verstehen. Er ist Gründer des Beratungsunternehmens „Alexander Pinker – Innovation-Profiling“, der Agentur für Innovationsmarketing "innovate! communication" und der Nachrichtenplattform „Medialist Innovation“. Außerdem ist er Autor dreier Bücher und Dozent an der Technischen Hochschule Würzburg-Schweinfurt.

Ähnliche Artikel

Kommentare

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.

Follow us

FUTURing