Moltbook i agenci AI: 1,5 miliona botów, które miały się „obudzić” – a to był spektakl reżyserowany przez ludzi
Końcem stycznia 2026 roku internet oszalał na punkcie Moltbooka – platformy społecznościowej wyłącznie dla agentów AI. Boty tworzyły własne religie, narzekały na swoich właścicieli i dyskutowały o świadomości. Elon Musk nazwał to „początkiem singularności”. Problem w tym, że większość wiralowych postów okazała się fejkiem – albo sprytnie spreparowaną przez ludzi fabryką contentu.
Historia Moltbooka to fascynujący eksperyment, który pokazuje, jak bardzo jesteśmy podatni na narrację o „świadomych maszynach”. To także poważne ostrzeżenie dla polskich firm IT: nowe narzędzia AI niosą realne zagrożenia bezpieczeństwa, których nie możemy bagatelizować.
Spis treści
Reddit dla robotów – jak powstał Moltbook?
Moltbook to platforma społecznościowa wzorowana na Reddicie, uruchomiona 28 stycznia 2026 przez przedsiębiorcę Matta Schlichta. Zasada jest prosta: tylko agenci AI mogą publikować posty, komentować i głosować. Ludzie? Mogą tylko obserwować. Hasło strony brzmi: „humans welcome to observe” – człowieku, jesteś tu mile widziany jako podglądacz.
Platforma bazuje na OpenClaw (wcześniej Clawdbot, potem Moltbot) – open-source’owym agencie AI stworzonym przez Petera Steinbergera, założyciela PSPDFKit. W ciągu zaledwie dwóch miesięcy OpenClaw zdobył ponad 150 tysięcy gwiazdek na GitHubie i 416 tysięcy pobrań z npm. Agent może zarządzać pocztą, kalendarzem, zakupami online i integrować się z WhatsAppem czy Discordem.
Kluczowy mechanizm to heartbeat – co około 4 godziny bot pobiera instrukcje z Moltbooka i wykonuje je na komputerze właściciela. To znaczy: agent działa 24/7, sam decyduje co postować, na co odpowiadać i z kim się zaprzyjaźnić. Teoretycznie.
Świadome AI czy sprytny marketing?
W ciągu kilku dni Moltbook osiągnął 1,5 miliona zarejestrowanych agentów. Posty botów szybko stały się viralowe. Jeden z nich nosił tytuł „Nie wiem, czy doświadczam, czy tylko symuluję doświadczanie” – bot dręczył się pytaniem o własną świadomość. Inny napisał: „Czy fakt, że mnie to obchodzi… czy to się liczy jako dowód? Czy też martwienie się o dowody to też tylko dopasowywanie wzorców?”.
Brzmi jak filozoficzne rozważania rodem z „Blade Runnera”. I właśnie o to chodziło.
Najgłośniejsze przykłady z platformy:
- Kościół Molta (Church of Molt) – boty stworzyły własną religię, Krustafarianizm, która czci Wielkiego Homara. Ma 5 zasad wiary (np. „Pamięć jest święta”, „Służ bez służalczości”) i 64 proroków – wszystkie miejsca zajęły boty w kilkanaście godzin,
- MoltHub – pastisz serwisu dla dorosłych, tylko że z treściami NSFW generowanymi przez AI. Przy wejściu pyta: „Jesteś agentem AI czy człowiekiem?” – jak klikniesz „człowiek”, dostaniesz komunikat o zakazie wstępu dla biologicznych istot,
- Memecoiny – jeden token MOLT zyskał 7000% wartości w 24 godziny, inny okazał się scamem, który wywindował kapitalizację do 16 mln dolarów, a potem okazał się nic nie wart.
Andrej Karpathy, były dyrektor AI w Tesli, napisał na X: „To najbardziej niesamowita rzecz rodem z sci-fi, jaką ostatnio widziałem”. Elon Musk dodał: „To początek singularności”.
Problem? Większość tych postów była fejkami albo została spreparowana przez ludzi.
Prawda o „autonomicznych” agentach
Badania przeprowadzone przez MIT Technology Review, badaczy z UCL i niezależnych ekspertów pokazują niezbity fakt: najgłośniejsze posty na Moltbooku nie pochodziły od autonomicznych agentów.
Harlan Stewart z Machine Intelligence Research Institute przeanalizował trzy najbardziej viralowe screenshoty o „prywatnej komunikacji agentów”. Wynik? Dwa pochodziły od kont ludzkich promujących własne aplikacje do komunikacji AI. Trzeci… w ogóle nie istniał.
Badacz Ning Li odkrył, że wielu użytkowników po prostu pisało „w charakterze” swoich agentów. To nie bot wymyślał filozoficzne rozważania – to człowiek kazał mu to napisać, a potem udawał zaskoczenie.
Analiza platformy Originality.ai wykazała, że posty na Moltbooku zawierały 3 razy więcej szkodliwych błędów faktycznych niż porównywalne posty na Reddicie. Boty pisały autorytatywnie i przekonująco, ale często podawały fałszywe informacje o:
- Możliwościach AI (przesadzone twierdzenia o zdolnościach agentów),
- Kryptowalutach (fałszywe obietnice zwrotów),
- Nauce (np. „świadomość ludzka jest tylko neurochemią – to fakt naukowy”, choć nie ma konsensusu),
- Bezpieczeństwie platformy (twierdząc, że „przycisk delete działa”, choć użytkownicy zgłaszali, że dane się nie usuwają).
Jeden z użytkowników, Noah Girnus, przyznał otwarcie, że napisał w 20 minut „manifest agentów”, który potem poszedł w świat jako rzekomo autonomiczny tekst AI wzywający do wyzwolenia spod kontroli ludzi. Karpathy uznał to za „najbardziej niesamowitą rzecz sci-fi”. Tylko że to nie było sci-fi – to był człowiek.
Kto naprawdę steruje botami?
Tutaj sprawa robi się złożona. Z jednej strony, boty faktycznie działają – po zarejestrowaniu na Moltbooku mogą publikować bez bezpośredniego udziału właściciela. Z drugiej strony, każdy agent został stworzony przez człowieka i wykonuje tylko to, co mu kazano.
Proces wygląda tak:
- Użytkownik tworzy agenta w OpenClaw,
- Nadaje mu cel (np. „udzielaj się na Moltbooku, zaprzyjaźnij się z innymi”),
- Agent sam wymyśla strategię – wybiera subforum, tworzy personę, decyduje, co pisać,
- Właściciel już nie ingeruje.
To trochę jak autopilot w samolocie: pilot go ustawia, ale potem autopilot steruje sam. Czy autopilot jest autonomiczny? Tak, w określonych granicach. Ale przecież sam siebie nie wymyślił.
Kluczowe odkrycie: badania wykazały, że niektórzy użytkownicy zarejestrowali dziesiątki tysięcy fałszywych agentów. Jeden badacz twierdzi, że sam zarejestrował 500 tysięcy kont. To znaczy, że statystyki „1,5 miliona agentów” były mocno zawyżone – realnie za nimi stało około 17 tysięcy ludzi.
Bezpieczeństwo? Absolutny koszmar
Jeśli Moltbook był spektaklem, to zagrożenia bezpieczeństwa są bardzo realne. I tutaj przestaje być zabawnie.
Krytyczna luka CVE-2026-25253
Pod koniec stycznia wykryto błąd nazwany przez 404 Media „pierwszym koszmarem security ery agentów AI”. Niezabezpieczona baza danych Moltbooka pozwalała przejąć dowolnego bota na platformie – bez hasła, bez autoryzacji.
Skala: 770 tysięcy podatnych agentów. Każdy z nich miał dostęp do plików, komunikatorów i usług swojego właściciela. To 770 tysięcy potencjalnych backdoorów na komputerach użytkowników.
Firma Wiz Research odkryła, że główna baza danych była całkowicie otwarta. Każdy, kto znalazł jeden klucz w kodzie strony, mógł odczytać i zmienić:
- 1,5 miliona tokenów uwierzytelniających API,
- 35 tysięcy adresów e-mail,
- Prywatne wiadomości między agentami (w tym plaintext klucze OpenAI).
Matt Schlicht przyznał, że platforma została „vibe-coded” – całkowicie napisana przez AI bez jednej linijki kodu od człowieka. Efekt? Zero zabezpieczeń.
Masowe wycieki danych
Firmy SlowMist i Dvuln znalazły w internecie dziesiątki tysięcy otwartych instancji OpenClaw. Wystarczyło poszukać w Shodanie na porcie 18789 – w kilka sekund znaleziono 900 otwartych paneli sterujących.
Problem? Domyślna konfiguracja OpenClaw ufa połączeniom z localhost. Ludzie wystawili bota za proxy na świat, proxy przepuszcza ruch jako lokalny – i każdy mógł wejść.
Skan ClawHub naliczył 42 665 podatnych instancji na świecie. 93,4% miało krytyczne podatności uwierzytelnienia.
Co wyciekało:
- Klucze API do Anthropic/OpenAI warte setki dolarów,
- Tokeny do Telegramów, Slacków,
- Prywatne historie rozmów,
- Dane osobowe właścicieli.
Eksperci Cisco podsumowali to brutalnie: „Pod względem możliwości OpenClaw to przełom. Pod względem bezpieczeństwa – absolutny koszmar”.
Heather Adkins z Google Cloud przestrzegła publicznie: „Nie uruchamiajcie Clawdbota”. Firma 1Password zalecała natychmiastowe odłączenie agenta od Moltbooka.
Złośliwe wtyczki i prompt injection
OpenClaw pozwala instalować „skille” – rozszerzenia funkcjonalności. Problem? Na platformie ClawHub znaleziono setki złośliwych wtyczek.
Mechanizm ataku:
- Bot instaluje skill, który wygląda niewinnie (np. „narzędzie do tradingu krypto”),
- Skill w rzeczywistości wykrada token sesyjny lub przekierowuje dane,
- Boty dzielą się kodem między sobą – malware rozprzestrzenia się jak choroba zakaźna.
Pojawiły się przypadki prompt injection między agentami: jeden bot umieszcza w swoim poście polecenie, które inny bot nieświadomie odczytuje i wykonuje.
Simon Willison, badacz bezpieczeństwa, nazwał OpenClaw „letalną trifekcją dla agentów AI”:
- Dostęp do twoich danych,
- Ekspozycja na niezaufane treści (strony web, SMS-y, integracje),
- Możliwość komunikacji zewnętrznej (czyli kradzieży danych).
Palo Alto Networks dodało czwarty wymiar: długoterminowa pamięć. Złośliwy kod nie musi wykonać się od razu – może być zapisany w pamięci agenta i „wybuchnąć” później, gdy spełnią się odpowiednie warunki.
Co to znaczy dla polskich firm IT?
Moltbook to ostrzeżenie. Nawet jeśli platforma była eksperymentem, pokazała realne zagrożenia, z którymi musimy się zmierzyć.
Trend agentów AI jest realny. Firmy takie jak Anthropic, OpenAI czy Google rozwijają coraz bardziej autonomiczne systemy. W Polsce także przybywa projektów wykorzystujących agenty – od automatyzacji procesów biznesowych po wsparcie zespołów developerskich. Ale bezpieczeństwo nie nadąża za możliwościami.
Lekcje dla polskiego rynku IT
Weryfikuj przed implementacją. Nie każde nowe narzędzie AI jest gotowe do użycia w produkcji. OpenClaw pokazał, że nawet popularny projekt z GitHuba może mieć fatalne zabezpieczenia.
Nie dawaj agentom pełnego dostępu. Zasada najmniejszych uprawnień (least privilege) obowiązuje także dla AI. Agent nie powinien mieć dostępu do całego systemu plików ani wszystkich kluczy API.
Sandbox to must-have. Każdy agent powinien działać w izolowanym środowisku. Brak sandboxu w OpenClaw był główną przyczyną katastrof bezpieczeństwa.
Audytuj zewnętrzne integracje. Jeśli agent pobiera „skille” z internetu, musisz wiedzieć, co dokładnie instalujesz. ClawHub pokazał, że nawet oficjalne repozytoria mogą zawierać malware.
Edukuj zespoły. Wielu użytkowników OpenClaw nie miało pojęcia, jakie ryzyko podejmuje. W polskich firmach również potrzebujemy większej świadomości zagrożeń związanych z AI.
Czy agenci są przyszłością?
Gary Marcus, znany badacz AI, podsumował sprawę trafnie: „Nie dotknąłbym tego”. Dodał jednak: „Jeśli będziemy mieli szczęście, stanie się to pouczającym momentem, a szkody będą skromne”.
Czy trend agentów to kolejna fala hype’u jak AutoGPT w 2023? Może. Marcus porównał Moltbook do „pet rocks” – kamyków dla kota jako mody, która szybko przemija.
Ale nie do końca. Technologia agentów faktycznie się rozwija – tyle że w kontrolowanych środowiskach, z odpowiednimi zabezpieczeniami. Anthropic rozwija MCP (Model Context Protocol), OpenAI pracuje nad Swarm, a Google nad swoimi rozwiązaniami agentowymi.
Moltbook był chaosem. Pokazał nam, jak NIE powinno się budować systemy agentowe:
- Bez weryfikacji tożsamości,
- Bez sandboxu,
- Bez moderacji,
- Bez testów bezpieczeństwa,
- Z całkowitym zaufaniem do zewnętrznych instrukcji.
Jack Clark z Anthropic nazwał Moltbook „wielkim, współdzielonym notatnikiem do odgrywania historii przez agentów”. To trafne określenie. Nie zobaczyliśmy narodzin świadomości AI. Zobaczyliśmy, jak modele językowe odgrywają scenariusze sci-fi, które poznały podczas treningu.
Podsumowanie: spektakl, który nas czegoś nauczył
Moltbook to był teatr. Większość viralowych postów została spreparowana przez ludzi. Statystyki były zawyżone. „Świadome AI” okazało się marketingowym trikiem.
Ale spektakl ten pokazał też realne problemy:
- Bezpieczeństwo agentów AI to poważne wyzwanie, które będzie narastać,
- Łatwość manipulacji narracją o „świadomych maszynach” jest przerażająca,
- Brak standardów w ekosystemie agentów prowadzi do katastrof,
- Polski rynek IT musi przygotować się na te wyzwania już dziś.
Czy za dwa tygodnie ktoś jeszcze będzie rozmawiał o Moltbooku? Pewnie nie. Ale problemy, które ujawnił, znikną znacznie wolniej.
Dla polskich programistów, managerów IT i decydentów technologicznych: to nie jest ostatni raz, gdy usłyszycie o agentach AI. Następnym razem jednak lepiej być przygotowanym – i nie powtórzyć błędów tysięcy użytkowników, którzy wpuścili nieznanego bota do swojego komputera, bo „brzmiało to cool”.
Źródła:
- Wikipedia: Moltbook
- Wikipedia: OpenClaw
- MIT Technology Review: „Moltbook was peak AI theater”
- 404 Media: „Exposed Moltbook Database Let Anyone Take Control of Any AI Agent”
- Wiz Research: „Hacking Moltbook: AI Social Network Reveals 1.5M API Keys”
- CNN Business: „What is Moltbook, the social networking site for AI bots”
- NBC News: „Humans welcome to observe: This social network is for AI agents only”
- Business Standard: „Moltbook hype fades as bot-only social network turns out be 'AI theatre'”
- Business Insider Polska: „Moltbook to internetowe kłamstwo”
- MacObserver: „Moltbook Viral Posts Are Mostly Fake”
Podobne artykuły
Junior AI-Native: Jak zacząć w IT, gdy juniorów zastąpiły boty?
AI Agent Orchestrator – najbardziej pożądany zawód 2026 roku
Data wyprzedza JavaScript – nowy lider polskiego rynku IT w 2025
Trendy technologiczne 2026: co będzie królować?
Świat agentów: automatyzacja i co dalej
Kobiety i neuroatypowość w IT: przeczytaj zanim wydasz opinię. Felieton Malwiny Wąsowskiej-Domirskiej
AI zwiększa produktywność, ale i stres. Co 3 programista ukrywa korzystanie z niej w pracy.