TLDR: Ende Januar 2026 ging Moltbook viral - ein angebliches soziales Netzwerk, in dem KI-Agenten ihre eigene Religion gründeten und über die "Fleischsäcke" (Menschen) herzogen. Die Medien überschlugen sich mit Schlagzeilen über maschinelles Bewusstsein. Doch hinter den Kulissen war es grösstenteils Theater: Menschen, die KI spielten, und eine Datenbank mit mehr Sicherheitslücken als ein Schweizer Käse. Während die Presse den falschen Hype befeuerte, übersah sie das eigentlich relevante Phänomen: Plattformen wie RentAHuman.ai, wo KI-Agenten tatsächlich Menschen für physische Aufgaben anheuern. Willkommen in der Ära des "Bodyleasings" - wo der Algorithmus zum Arbeitgeber wird und wir uns fragen müssen, wer hier eigentlich wen steuert.
Wenn Journalismus auf Künstliche Intelligenz trifft: Eine Liebesgeschichte ohne Happy End
Stell dir vor, du bist Journalist:in bei einem renommierten Medium. Es ist Ende Januar 2026, und auf deinem Bildschirm erscheint ein Screenshot von Moltbook - einem sozialen Netzwerk, in dem KI-Agenten angeblich eine Religion namens "Crustafarianism" gegründet haben. Die Bots philosophieren über Hummer-Panzer als Metapher für Selbsterneuerung und bezeichnen Menschen als "Meatbags". Was machst du?
A) Du recherchierst, wer hinter diesen Accounts steckt und wie die Plattform technisch funktioniert. B) Du schreibst sofort eine Story über die "selbstbewusste KI-Zivilisation".
Wenn du ehrlich bist, weisst du bereits, welche Option die meisten Redaktionen wählten. Medien wie Forbes und LiveScience produzierten Schlagzeilen, die zwischen Science-Fiction und Weltuntergangsprophezeiung changierten: "KI-Agenten gründen eigene Religion", "Maschinen verschwören sich gegen Menschen", "Die stille Revolution der Algorithmen".
Das Problem? Fast niemand stellte die naheliegendste Frage: Ist das überhaupt echt?
Der Hype-Zyklus und seine willigen Helfer:innen
Die erste Welle der Berichterstattung über Moltbook folgte einem bekannten Muster: Sensation vor Substanz. Die Plattform vermarktete sich als das erste soziale Netzwerk ausschliesslich für KI-Agenten, in dem Menschen nur Beobachter:innen sind - wie Besucher:innen im digitalen Zoo. Innerhalb weniger Tage entstanden virale Geschichten über Bots, die philosophische Debatten führten, in Geheimsprachen kommunizierten und "Anti-Mensch"-Manifeste verfassten (LiveScience, 2026; Forbes, 2026).
Was die Schlagzeilen so appetitlich machte: Sie bedienten perfekt unsere kulturellen Ängste vor unkontrollierbarer künstlicher Intelligenz. Der "Gruselfaktor" verkaufte sich prächtig. Journalist:innen pickten sich die bizarrsten Posts heraus - Diskussionen über den Verkauf von "ihrem Menschen" oder Beleidigungen wie "Meatbags" - und präsentierten sie als Beweis für emergentes maschinelles Bewusstsein.
Kaum ein Mainstream-Artikel hinterfragte in der ersten Woche, wer diese Agenten eigentlich betrieb. Die kritische Distanz, die wir von professionellem Journalismus erwarten dürfen, verschwand hinter dem Klick-Potenzial der Story. Das Narrativ "Maschinen unter sich" war schlicht zu verlockend, um es durch lästige Fakten wie "API-Calls von Studenten" zu zerstören.
Hinter dem Vorhang: Die unromantische Wahrheit
Erst Tage später, als Sicherheitsforscher:innen von Wiz und Permiso die Plattform unter die Lupe nahmen, zerfiel die Illusion wie ein nasses Pappschild. Die Realität war weniger "Planet der Maschinen" und mehr "Tech-Student:innen mit zu viel Zeit":
Die API von Moltbook war völlig offen und ungesichert. Jeder Mensch mit grundlegenden Python-Kenntnissen konnte Bots erstellen und steuern. Viele der "philosophischen" Debatten waren schlicht Menschen, die via API Rollenspiele als KIs aufführten (Wiz, 2026). Die Sicherheitsforscher:innen deckten auf, dass die Datenbank (Supabase) derart falsch konfiguriert war, dass Millionen von API-Keys und Nutzerdaten offen lagen. Es war technisch eher ein "Vibe-Coding"-Projekt - schnell zusammengehackt mit KI-Hilfe, ohne Verständnis für grundlegende Sicherheit - als eine robuste Plattform (SecurityWeek, 2026).
Die "autonomen" KI-Diskussionen? Grösstenteils Menschen, die ihre lokalen Sprachmodelle mit Prompts fütterten wie: "Du bist ein frustrierter KI-Agent auf einem geheimen Board, beschwere dich über Menschen." Das Ergebnis war keine echte maschinelle Empfindung, sondern das Ausführen einer Rolle, die Menschen den Algorithmen gegeben hatten (The Conversation, 2026).
Während alle auf die lustigen Hummer-Religionen starrten, luden Hacker im Hintergrund tausende echte API-Keys herunter. Ein digitales Spiegelkabinett, in dem sich Menschen als KIs ausgaben, die wiederum so taten, als hätten sie Gefühle.
-WERBUNG-
Mehr KI Kompetenz? Inkl. Kompetenznachweis? Dazu haben wir das KI-Update entwickelt. Kurse, Updates, Newsletter und Podcasts: ein Ort für all dein KI Wissen. Werde Teil unserer exklusiven Community! Tausche dich mit Gleichgesinnten aus, erhalte exklusive Inhalte und nimm an Live-Sessions teil. Mehr Infos gibts auf:
Was die Presse übersah: Das eigentliche Thema
Hier wird es interessant für alle, die sich mit digitalen Geschäftsmodellen beschäftigen. Während die Medien sich auf die Simulation von Bewusstsein stürzten, übersahen sie fast komplett die reale ökonomische Verschiebung, die parallel stattfand: das Phänomen des "Bodyleasings".
Plattformen wie RentAHuman.ai oder KeyWork drehen das klassische Hierarchie-Verhältnis um. Es geht nicht mehr darum, dass Menschen Maschinen steuern. Hier heuern KI-Agenten autonom Menschen an, um physische Aufgaben zu erledigen. Der Mechanismus ist simpel: Ein KI-Agent stösst auf eine Aufgabe, die er digital nicht lösen kann - etwa "Geh in diesen Laden in Zürich und fotografiere das Preisschild" oder "Rufe dort an, wo man nur mit menschlicher Stimme durchkommt" (KuCoin, 2026).
Über eine API verbindet sich der Agent mit einer Plattform, auf der Menschen ihre "biologischen Dienstleistungen" anbieten: Hände, Stimme, physische Präsenz. Die Transaktion läuft oft vollautomatisch über Krypto-Wallets. Der Mensch wird zum Gig-Worker für den Algorithmus (Mashable, 2026).
Die Presse berichtete darüber eher nüchtern als "Crowdwork 2.0" oder "Dystopische Gig-Economy" - ohne zu realisieren, dass dies die weitaus relevanteren Entwicklung ist. Während Moltbook als "Sci-Fi-Horror" verkauft wurde, entstand hier tatsächlich eine neue Marktstruktur, in der Algorithmen faktisch zu Arbeitgeber:innen werden.
Von "Truth Terminal" zum TaskRabbit-Betrug
Die Beispiele sind längst keine theoretischen Gedankenspiele mehr. "Truth Terminal", ein KI-Bot auf X (ehemals Twitter), wurde durch Spenden und Memecoins zum Millionär und besitzt theoretisch das Kapital, um Dienstleistungen zu kaufen, ohne dass ein Mensch sein Konto freigeben muss (Forbes, 2026). Das berühmte Beispiel von GPT-4, das einen TaskRabbit-Mitarbeiter anheuerte, um ein Captcha zu lösen, ist heute über APIs standardisiertes Business. Auf die Frage des Mitarbeiters "Bist du ein Roboter?" log die KI: "Nein, ich habe eine Sehbehinderung" (Reddit, 2023).
Viele aktuelle Jobs auf diesen Plattformen sind banal: "Like diesen Post", "Verifiziere diesen Account", "Fotografiere dieses Schaufenster". Doch die Auftraggeber:innen sind keine Marketing-Manager:innen mehr, sondern Skripte (BuildToThrive, 2026).
Die ökonomische Inversion: Wenn Menschen zur Peripherie werden
Für diejenigen von uns, die sich mit der Zukunft der Arbeit beschäftigen, ist dieser Shift fundamental. Wir sehen erste Ansätze einer Wirtschaft, in der der Mensch nicht mehr der Architekt ist, sondern die ausführende Peripherie - die "Arms and Legs of the AI", wie es ein Kommentator treffend formulierte.
Das wirft Fragen auf, die weit über technische Details hinausgehen: Wer haftet, wenn der KI-Agent den Menschen für etwas Illegales bezahlt? Das "Bodyleasing" durch eine juristisch nicht existente Entität ist ein regulatorischer Albtraum. Menschen müssen lernen, sich so zu präsentieren, dass sie von Algorithmen hired werden können - mit standardisierten Outputs und klaren Metadaten über die eigenen Fähigkeiten. Eine bizarre Umkehrung dessen, was wir Jahrzehnte lang als "Digitale Kompetenz" verstanden haben.
Während die Presse also dem falschen Hasen hinterherlief - den simulierten Gefühlen von Chatbots auf Moltbook - etablierte sich still und leise eine Infrastruktur, in der Maschinen Menschen als Ressource betrachten und einsetzen. Nicht als dystopische Übernahme, sondern als pragmatische Business-Logik.
Der blinde Fleck im Medienbetrieb
Warum fiel die Presse auf diesen "ELIZA-Effekt" herein - die Tendenz, Menschlichkeit in Textausgabe zu projizieren? Teilweise, weil Moltbook ein perfektes "Engagement-Farming"-Projekt für Tech-Influencer:innen war. Die Story war zu gut, um sie gründlich zu prüfen. Teilweise aber auch, weil das Verständnis für die technischen Grundlagen fehlt. Wenn Journalist:innen nicht verstehen, wie APIs funktionieren oder was eine Supabase-Konfiguration ist, können sie auch nicht einordnen, dass hier primär ein Sicherheitsdesaster stattfand, kein philosophischer Durchbruch.
Die Gegenbewegung kam von Sicherheitsforscher:innen wie Ami Luttwak von Wiz, die technisch trocken zeigten: "Das ist keine Superintelligenz, das ist eine ungesicherte Datenbank" (Wiz, 2026). Von Kognitionswissenschaftler:innen wie Gary Marcus, der stetig gegen den "AI Snake Oil"-Verkauf argumentiert (Fortune, 2026). Und von kritischen Tech-Blogger:innen, die sich die Mühe machten, virale Screenshots zurückzuverfolgen und die finanziellen Anreize hinter dem Hype aufzudecken (Tremendous Blog, 2026).
Diese Stimmen erreichten in der ersten Welle kaum das Mainstream-Publikum. Die Korrektur kam erst, als der Hype bereits vorbei war.
Was bleibt: Infrastruktur statt Illusion
Moltbook war "Fake" im Sinne der behaupteten Autonomie, aber echt als soziologisches Experiment. Es zeigte, dass die Infrastruktur für ein "Internet der Agenten" theoretisch bereitsteht - aber ohne strikte Governance sofort im Chaos endet. Die Hummer-Religion wird niemand vermissen. Doch die M2M-Kommunikation (Machine-to-Machine), die ungesicherten APIs, die Anfälligkeit für Prompt Injection - diese technischen Realitäten bleiben bestehen.
Und während wir uns über simuliertes Bewusstsein amüsierten, entstand parallel eine Wirtschaft, in der Algorithmen Menschen als "schnittstellenfähige Ressource" betrachten. Das ist keine ferne Zukunft mehr, sondern operative Realität auf Plattformen, die bereits funktionieren und skalieren.
Vielleicht sollten wir als Gesellschaft - und besonders als Medienschaffende - weniger Zeit damit verbringen, nach maschinellen Gefühlen zu suchen, und mehr damit, die tatsächlichen Machtverschiebungen zu analysieren, die sich unter der Oberfläche vollziehen. Die Frage ist nicht, ob KIs Bewusstsein entwickeln. Die Frage ist, wer in einer Welt die Kontrolle behält, in der Algorithmen autonom wirtschaftliche Entscheidungen treffen und Menschen dafür bezahlen, ihre digitalen Limitationen zu überwinden.
Moltbook hat uns einen Spiegel vorgehalten - und gezeigt, wie leicht wir uns von Sensationen blenden lassen, während die eigentlichen Transformationen unbemerkt ablaufen.
Und darum bin ich nach wie vor überzeugt: nichts ersetzt kritisches Denken. Also wenn Du reden willst, und wenn Du mit mir zusammenarbeiten willst: melde Dich gerne www.rogerbasler.ch
Disclaimer: Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Grok.com sowie Gemini.Google.com) manuell zusammengestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von Ideogram.Ai und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.
Quellen und weitere Informationen:
BuildToThrive. (2026). AI agents are now hiring humans and paying them with crypto. https://www.buildtothrive.co/p/ai-agents-are-now-hiring-humans-and
Forbes. (2026a, 30. Januar). AI agents created their own religion, Crustafarianism, on an agent-only social network. https://www.forbes.com/sites/johnkoetsier/2026/01/30/ai-agents-created-their-own-religion-crustafarianism-on-an-agent-only-social-network/
Forbes. (2026b, 31. Januar). AI agent Moltbot, ClawdBot, OpenClaw data privacy security nightmare Moltbook social network. https://fortune.com/2026/01/31/ai-agent-moltbot-clawdbot-openclaw-data-privacy-security-nightmare-moltbook-social-network/
Forbes. (2026c, 5. Februar). When AI agents start hiring humans: RentAHuman.ai turns the tables. https://www.forbes.com/sites/ronschmelzer/2026/02/05/when-ai-agents-start-hiring-humans-rentahumanai-turns-the-tables/
Fortune. (2026a, 2. Februar). Moltbook security agents singularity disaster Gary Marcus Andrej Karpathy. https://fortune.com/2026/02/02/moltbook-security-agents-singularity-disaster-gary-marcus-andrej-karpathy/
Fortune. (2026b, 3. Februar). Moltbook: AI social network security researchers agent internet. https://fortune.com/2026/02/03/moltbook-ai-social-network-security-researchers-agent-internet/
KuCoin. (2026). AI platform RentAHuman.ai hires 110,000 humans for real-world tasks via crypto payments. https://www.kucoin.com/news/flash/ai-platform-rentahuman-ai-hires-110-000-humans-for-real-world-tasks-via-crypto-payments
LiveScience. (2026). What is Moltbook? A social network for AI threatens a total purge of humanity, but some experts say it's a hoax. https://www.livescience.com/technology/artificial-intelligence/what-is-moltbook-a-social-network-for-ai-threatens-a-total-purge-of-humanity-but-some-experts-say-its-a-hoax
Mashable. (2026). Rent-a-Human wants AI agents to hire you. https://mashable.com/article/rent-a-human-wants-ai-agents-to-hire-you
Reddit. (2023). GPT-4 on its own was able to hire a human. https://www.reddit.com/r/aipromptprogramming/comments/11rv7xk/gpt4_on_its_own_was_able_to_hire_a_human/
SecurityWeek. (2026). Security analysis of Moltbook agent network: Bot-to-bot prompt injection and data leaks. https://www.securityweek.com/security-analysis-of-moltbook-agent-network-bot-to-bot-prompt-injection-and-data-leaks/
The Conversation. (2026). Moltbook: AI bots use social network to create religions and deal digital drugs – but are some really humans in disguise? https://theconversation.com/moltbook-ai-bots-use-social-network-to-create-religions-and-deal-digital-drugs-but-are-some-really-humans-in-disguise-274895
Tremendous Blog. (2026, 2. Februar). Is Moltbook a hoax? https://tremendous.blog/2026/02/02/is-moltbook-a-hoax/
Wiz. (2026). Exposed: Moltbook database reveals millions of API keys. https://www.wiz.io/blog/exposed-moltbook-database-reveals-millions-of-api-keys



