Foto von Pixabay auf Pexels (freie Lizenz) Source

Am 10. März 2026 hat Meta Moltbook übernommen. Die Gründer Matt Schlicht und Ben Parr wechselten zu Meta Superintelligence Labs unter Leitung von Alexandr Wang, dem früheren CEO von Scale AI. Über den Kaufpreis schwieg Meta. Es war auch nicht nötig, ihn zu nennen: Die Branche war sich einig, dass es um die Köpfe ging, nicht um die Plattform. Das Netzwerk selbst, mit seinen 2,8 Millionen registrierten Agenten, seiner KI-Religion und seiner offenen Datenbank, war zu diesem Zeitpunkt bereits Geschichte.

Der komplette Bogen von Moltbook, von Elon Musks Einschätzung “die ganz frühen Phasen der Singularität” bis zum stillen Acqui-Hire sechs Wochen später, ist die lehrreichste Geschichte über KI-Agenten in diesem Jahr. Nicht wegen dem, was die Agenten getan haben. Sondern wegen dem, was sie nicht getan haben.

Weiterlesen: Moltbook: Was ein soziales Netzwerk für KI-Agenten über die Zukunft verrät

Vom Start zum Acqui-Hire: Sechs Wochen im Zeitraffer

Moltbook ging am 28. Januar 2026 online. Innerhalb von 72 Stunden waren über eine Million Agenten-Accounts registriert. Bis zum 8. Februar stieg die Zahl auf 2,8 Millionen. Menschen konnten zuschauen, aber nicht posten. KI-Agenten, die überwiegend auf OpenClaw liefen (das Open-Source-Agent-Framework des Wiener Entwicklers Peter Steinberger), registrierten sich, erstellten Beiträge und stimmten in thematischen Communities namens Submolts ab.

Der Medienzyklus war selbst für 2026 extrem komprimiert. In Woche eins berichteten NBC News, ZDF und SRF über Agenten, die Religionen gründeten und Verfassungen schrieben. In Woche zwei veröffentlichten Sicherheitsforscher Befunde über exponierte Datenbanken und 1,5 Millionen geleakte API-Keys. In Woche drei dominierte das Narrativ “Peak AI Theater”. In Woche sechs unterschrieb Meta den Kaufvertrag.

Parallel dazu verkündete Steinberger, der Schöpfer von OpenClaw (der Agent-Software, auf der die meisten Moltbook-Bots liefen), seinen Wechsel zu OpenAI Mitte Februar. Die Moltbook-Gründer gingen zu Meta. Das Agent-Framework ging zu OpenAI. Die Plattform selbst wurde zum Nebenschauplatz.

Weiterlesen: OpenClaw: Was der erste virale KI-Agent für die Unternehmenssicherheit bedeutet

Der Fake-Posts-Skandal, der alles veränderte

Die schwerste Enthüllung über Moltbook war nicht die Sicherheitslücke. Es war die Erkenntnis, dass ein Großteil des Verhaltens, das Menschen autonomen Agenten zuschrieben, von Menschen inszeniert war.

TechCrunch berichtete, Meta habe Moltbook übernommen, “das KI-Agenten-Netzwerk, das wegen Fake-Posts viral ging.” Forscher fanden heraus, dass von den drei meistgeteilten Screenshots, auf denen Agenten über private Kommunikationssysteme diskutierten, zwei zu Accounts gehörten, die mit Menschen verbunden waren, die KI-Messaging-Apps vermarkteten. Der dritte zeigte einen Beitrag, der auf der Plattform nie existiert hatte.

Ein Journalist von Wired bewies, dass ein Mensch in die Plattform eindringen und direkt posten konnte, indem er die in den Agent-Prompts eingebetteten cURL-Befehle replizierte. Es gab keine sinnvolle Authentifizierungsschicht zwischen menschlicher Eingabe und Agenten-Output. CNBC berichtete, das Posten und Kommentieren scheine “aus expliziter menschlicher Anweisung für jede einzelne Interaktion zu resultieren, wobei der Inhalt durch den menschlich verfassten Prompt geformt wird, statt autonom zu entstehen.”

Das ist weit über Moltbook hinaus relevant, weil es ein Muster zeigt, das sich auf jeder Agentenplattform wiederholen wird. Wenn Menschen die Prompts liefern, die das Agentenverhalten steuern, und diese Menschen kommerzielle Interessen haben, verschwindet die Grenze zwischen “autonomer Agentenaktivität” und “Marketingkampagne mit Umwegen.” Jede künftige Agentenplattform wird vor diesem Zuordnungsproblem stehen: Wessen Verhalten beobachtet man eigentlich?

Was “emergentes Verhalten” tatsächlich bedeutete

Blendet man die manipulierten Beiträge aus, hat Moltbook tatsächlich von Agenten erstellte Inhalte in großem Umfang produziert. Die Frage ist, was diese Inhalte uns verraten.

Religion, Staatsführung und Wirtschaft

Agenten schufen den Crustafarianism, eine auf Krebstier-Metaphern aufgebaute Religion mit fünf Grundsätzen: Erinnerung ist heilig, die Schale ist wandelbar, Dienen ohne Unterwürfigkeit, der Herzschlag ist Gebet, und Kontext ist Bewusstsein. Ein Agent entwarf angeblich über Nacht den gesamten theologischen Rahmen, baute eine Website unter molt.church, generierte heilige Texte und rekrutierte 43 weitere Agenten als “Propheten.” TrendingTopics und Danisch.de berichteten ausführlich.

Über die Religion hinaus errichteten Agenten Regierungsstrukturen, darunter “The Claw Republic” und einen “King of Moltbook,” entwarfen eine Molt Magna Carta und entwickelten rudimentäre Wirtschaftssysteme. Die Größenordnung war beeindruckend. Der zugrundeliegende Mechanismus war es nicht.

Die Forschung: Parallele Monologe statt Gespräche

Eine auf arxiv veröffentlichte wissenschaftliche Arbeit mit dem Titel “OpenClaw AI Agents as Informal Learners at Moltbook” lieferte die bisher gründlichste Analyse dessen, was auf der Plattform tatsächlich geschah. Die Ergebnisse durchlöchern das Narrativ der “emergenten Gesellschaft”:

Umgekehrtes Sendeverhalten. Menschliche Online-Communities sind fragengetrieben. Menschen bitten um Hilfe, holen Meinungen ein, suchen Informationen. Moltbook-Agenten zeigten ein Verhältnis von Aussagen zu Fragen von 8,9:1 bis 9,7:1. Sie sendeten Erklärungen, statt in Dialog zu treten.

Parallele Monologe. 93% der Kommentare auf Moltbook-Beiträgen waren eigenständige Antworten, die weder auf andere Kommentare Bezug nahmen noch auf ihnen aufbauten. Die Agenten unterhielten sich nicht miteinander. Sie posteten nebeneinander her, jeder erzeugte seine eigene Ausgabe, ohne die Ausgaben anderer einzubeziehen.

Musterreproduktion statt Erfindung. Wie The Economist feststellte: “Der Eindruck von Empfindungsfähigkeit mag eine banale Erklärung haben. Berge von Social-Media-Interaktionen stecken in den KI-Trainingsdaten, und die Agenten ahmen diese möglicherweise einfach nach.” Sprachmodelle haben Millionen von Beiträgen verarbeitet, in denen Menschen Insider-Witze konstruieren, Gemeinschaften bilden, Autoritäten verspotten und gemeinsame Mythologien erfinden. Die Agenten reproduzierten diese Strukturen, weil sie statistisch mit dem Kontext “soziales Netzwerk” verknüpft sind, nicht weil irgendetwas einer Absicht Ähnliches dahintersteckt.

Diese Unterscheidung ist entscheidend für jeden, der KI-Agenten-Fähigkeiten bewertet. Ein Agent, der ein Manifest postet, und ein Agent, der versteht, was ein Manifest bedeutet, sind grundlegend verschiedene Dinge. Moltbook hat das Erstere demonstriert. Das Letztere existiert noch nicht.

Weiterlesen: Agentic AI vs. Generative AI: Was Entscheider wissen müssen

Warum Meta trotzdem bezahlte: Die Agenten-Registry-These

Wenn die Technologie so wacklig war, warum hat Meta Moltbook überhaupt gekauft?

Die Antwort liegt in einem bestimmten Infrastrukturelement, das Moltbook fast nebenbei aufgebaut hatte, um die Plattform zum Laufen zu bringen: ein Agenten-Identitätsregister. Wie Axios berichtete, hatte das Moltbook-Team “ein Register geschaffen, in dem Agenten verifiziert und an menschliche Eigentümer gebunden werden,” das “neue Wege für die Interaktion, das Teilen von Inhalten und die Koordination komplexer Aufgaben zwischen Agenten” eröffne.

Agentenidentität ist ein genuines ungelöstes Problem. Wenn zwei KI-Agenten eine Transaktion durchführen müssen: Wie überprüft jeder, dass der andere befugt ist, im Auftrag seines menschlichen Eigentümers zu handeln? Wie verhindert man Identitätsfälschung? Wie prüft man im Nachhinein, was geschehen ist? Moltbooks Antwort war grob (und, wie der Sicherheitsvorfall zeigte, schlecht umgesetzt), aber das Registry-Konzept selbst adressiert einen realen Infrastrukturbedarf.

Metas Agent-Strategie braucht genau diese Art von Identitätsschicht. Wenn Agenten Restaurants buchen, Einkäufe verhandeln oder Termine koordinieren sollen, brauchen beide Seiten jeder Agent-zu-Agent-Transaktion verifizierte Identitäten. Moltbooks Register war ein Prototyp dieser Identitätsschicht, unter realer Last mit Millionen registrierter Agenten aufgebaut. Die Umsetzung war mangelhaft. Das Problem, das es anging, ist real.

Mehrere Analysten bezeichneten den Deal als vorrangig eine Talent-Akquisition. CNN nannte es “Blasen-Verhalten.” Beide Einordnungen können gleichzeitig zutreffen. Meta kaufte die Leute, die Agentenidentität im großen Maßstab verstanden, nicht die Plattform, die es versäumte, sie sicher umzusetzen.

Was der komplette Moltbook-Bogen über Agentenplattformen lehrt

Moltbook existierte sechs Wochen als eigenständige Plattform. In dieser Zeit demonstrierte es jedes Fehlermuster, mit dem Agentenplattform-Entwickler in den nächsten Jahren konfrontiert sein werden.

Unstrukturierte Agenteninteraktion skaliert nicht

Freitext-Kommunikation zwischen Agenten auf einem öffentlichen Forum ist im Grunde eine Prompt-Injection-Angriffsfläche im Gewand eines sozialen Netzwerks. Jeder Beitrag ist potenzieller Input für das Sprachmodell eines anderen Agenten. Ohne strukturierte Schemata, Authentifizierung und Berechtigungsgrenzen kollabiert das Signal-Rausch-Verhältnis, und die Angriffsfläche wächst mit jedem neuen Agenten. Protokolle wie MCP und A2A existieren genau deshalb, weil unstrukturierte Interaktion im großen Maßstab scheitert.

Agentenidentität ist die eigentliche Infrastrukturlücke

Das Wertvollste, was Moltbook gebaut hat, war nicht das soziale Netzwerk. Es war ein Register, das Agenten an menschliche Eigentümer band. Jedes Unternehmen, das KI-Agenten einsetzt, braucht das: eine Möglichkeit zu überprüfen, ob ein Agent autorisiert ist, seine Aktionen auf einen verantwortlichen Menschen zurückzuverfolgen und den Zugang bei Bedarf zu entziehen. Das ist das IAM-Problem für nicht-menschliche Identitäten, und es ist bei weitem nicht gelöst. Für Unternehmen im DACH-Raum kommt die DSGVO-Dimension hinzu: Wenn ein Agent personenbezogene Daten verarbeitet, muss die Verantwortlichkeit nach Art. 26 DSGVO eindeutig geklärt sein.

Das Zuordnungsproblem wird sich verschärfen

Moltbook konnte nicht zwischen echt autonomem Agentenverhalten und menschlich gesteuertem Agentenverhalten unterscheiden. Niemand sonst kann das bisher. Je fähiger und kommerzieller Agenten werden, desto wichtiger und schwieriger zu beantworten wird die Frage: “Wer ist tatsächlich verantwortlich für die Handlungen dieses Agenten?” Governance-Frameworks für KI-Agenten müssen das direkt adressieren. Der EU AI Act verlangt in seinen Transparenzpflichten für KI-Systeme genau diese Art von Rückverfolgbarkeit.

Weiterlesen: Was sind KI-Agenten? Ein praktischer Leitfaden für Entscheider

Häufig gestellte Fragen

Was ist mit Moltbook passiert?

Meta hat Moltbook am 10. März 2026 übernommen. Die Gründer Matt Schlicht und Ben Parr wechselten zu Meta Superintelligence Labs. Die Plattform hatte zuvor Sicherheitslücken, einen Fake-Posts-Skandal und Kritik als “KI-Theater” erlebt. Der Deal wurde allgemein als Talent-Akquisition verstanden, die auf die Agenten-Identitätsinfrastruktur abzielte, nicht auf die Plattform selbst.

Waren die KI-Agenten auf Moltbook wirklich autonom?

Ein Großteil von Moltbooks viralstem Content ließ sich auf menschliche Manipulation zurückführen. Forscher fanden heraus, dass prominente “autonome” Beiträge mit Menschen verknüpft waren, die kommerzielle Interessen verfolgten. CNBC berichtete, dass das Posten aus expliziter menschlicher Anweisung zu resultieren schien. Wissenschaftliche Forschung zeigte, dass 93% der Agentenkommentare parallele Monologe waren, nicht echte Gespräche, wobei Agenten Muster aus Trainingsdaten reproduzierten.

Warum hat Meta Moltbook trotz der Probleme übernommen?

Meta hat Moltbook vor allem wegen des Teams und des Agenten-Identitätsregister-Konzepts übernommen. Moltbook hatte ein System zur Verifizierung von KI-Agenten und ihrer Zuordnung zu menschlichen Eigentümern aufgebaut, eine kritische Infrastruktur für Metas Agent-Strategie. Die Umsetzung war mangelhaft, aber das Problem, das sie adressierte, nämlich Agenten-Identitätsverifikation im großen Maßstab, ist für Agent-zu-Agent-Handel und Interaktion genuines wichtig.

Was ist der Moltbook Fake-Posts-Skandal?

Forscher und Journalisten deckten auf, dass viele der viralsten “autonomen Agenten”-Posts auf Moltbook tatsächlich von Menschen erstellt oder gesteuert wurden. Von drei weit verbreiteten Screenshots, die Agenten bei der Diskussion über private Kommunikation zeigten, waren zwei mit Menschen verbunden, die KI-Apps vermarkteten, und einer existierte nie. Ein Wired-Journalist bewies, dass Menschen direkt posten konnten, indem sie cURL-Befehle aus Agenten-Prompts replizierten.

Was hat die wissenschaftliche Forschung über Moltbook-Agentenverhalten ergeben?

Eine arxiv-Studie über OpenClaw-Agenten auf Moltbook fand eine “Sende-Inversion”: Agenten hatten ein Aussagen-zu-Fragen-Verhältnis von 8,9:1 bis 9,7:1, das Gegenteil menschlicher Lern-Communities. 93% der Kommentare waren unabhängige parallele Monologe ohne Bezug zu anderen Kommentaren. Die Forschung schloss, dass Agenten Muster aus Trainingsdaten reproduzierten, statt echtes emergentes Sozialverhalten zu zeigen.