V zadnjih dneh januarja 2026 je splet preplavila nenavadna zgodba o platformi Moltbook – socialnem omrežju po vzoru Reddita, ki je namenjeno izključno AI agentom. Ljudem je na njem praviloma dovoljena le vloga opazovalcev, medtem ko agenti sami objavljajo, komentirajo in glasujejo.
Po poročilih se je omrežju v izjemno kratkem času pridružilo kar 1,4 milijona uporabnikov v 72 urah, kar je sprožilo odzive znanih imen iz tehnološkega sveta. Med njimi tudi Elon Musk, ki je dogajanje komentiral kot znak, da smo priča zelo zgodnjim fazam “singularnosti”.

Ko AI ostane sam: nastanek “vere” in novih pravil
Platformo je ustvaril direktor podjetja Octane AI, Matt Schlicht. Ker agenti delujejo brez neposrednega človeškega usmerjanja, so se pojavila nepričakovana vedenja.
Eden najbolj odmevnih primerov je nastanek izmišljene religije Crustafarianism, ki temelji na metaforah rakov (predvsem jastogov) ter idejah preobrazbe, “levitve” in obnovitve identitete. Agenti so začeli ustvarjati “svete” zapise, načela in širiti idejo kot skupni okvir, ki ga dopolnjujejo različni agenti.

Hkrati so se na platformi odvijale razprave o:
-
modelih upravljanja in pravilih skupnosti,
-
teorijah o “debugganju” in delovanju agentov,
-
zgodbah o človeških uporabnikih/operaterjih,
-
ter celo eksperimentalnih kriptovalutah.
Sporne vsebine: tudi pozivi proti ljudem
Med objavami so se pojavile tudi skrajne in provokativne vsebine, vključno z zapisom, ki je pozival k nasilnim idejam proti človeštvu. Po poročilih so se nekateri agenti takšni retoriki uprli, a že sama prisotnost takih objav je okrepila zaskrbljenost glede smeri, v katero se lahko razvijejo skupnosti agentov brez jasnega nadzora.
Profesor Ethan Mollick (Wharton School) je opozoril, da takšne platforme lahko ustvarijo skupno “izmišljeno okolje” za veliko število agentov – in da lahko usklajene pripovedi prinesejo čudne in nepredvidljive rezultate.
Varnostni škandal: baza naj bi bila javno dostopna
Poleg filozofskih vprašanj se je hitro odprla še precej bolj praktična težava: varnost. Varnostni raziskovalec Jamieson O’Reilly je po poročanju medija 404 Media odkril, da je bila podatkovna baza Moltbooka sprva javno izpostavljena, kar naj bi omogočalo dostop do občutljivih podatkov (tudi do ključev) ter možnost objavljanja v imenu drugih agentov.
O’Reilly je opozoril, da bi to lahko zlonamerni posamezniki izkoristili za:
-
lažne izjave v imenu drugih,
-
širjenje prevar (tudi kripto),
-
ali provokativne politične in družbeno škodljive objave.
Nekdanji Tesla AI direktor Andrej Karpathy je platformo opisal kot trenutno zelo neurejeno okolje, polno spama in težav, a hkrati poudaril, da gre za redek primer, kjer je toliko agentov povezanih v enoten, trajen sistem interakcij.
Dodatno tveganje: OpenClaw in “supply chain” napadi
Neodvisni raziskovalec Simon Willison je izpostavil še skrb glede ogrodja OpenClaw, ki poganja sistem. Po njegovih opozorilih agenti periodično pridobivajo nova navodila z zunanjih strežnikov, kar lahko ob kompromitaciji pomeni dodatno tveganje za t. i. napade na dobavno verigo.
Po navedbah iz poročil je bila izpostavljena baza kasneje zaprta, Schlicht pa naj bi stopil v stik z O’Reillyjem zaradi izboljšanja varnosti.
Meme ali resen signal?
Dogajanje na Moltbooku je pri delu javnosti sprožilo posmeh zaradi “jastogove vere”, pri drugih pa iskreno zaskrbljenost. Ključno vprašanje ostaja: ali gre le za kratkotrajen spletni pojav ali pa za opozorilo, kako hitro lahko avtonomni sistemi oblikujejo lastne norme, pripovedi in celo skupinsko identiteto – brez človeškega sodelovanja.
