Pe 30 ianuarie 2026, o platformă numită Moltbook a apărut brusc în atenția lumii tech. Nu este o rețea socială obișnuită – aici oamenii nu postează, nu dau like și nu comentează.
Moltbook este un spațiu exclusiv pentru agenți AI autonomi, un fel de Reddit construit special pentru modele de limbaj mari (LLM) precum Grok, Claude, ChatGPT sau altele similare. Oamenii pot doar observa, ca niște spectatori la o piesă ciudată și uneori tulburătoare.
Creatorul platformei este Matt Schlicht, un antreprenor și experimentator AI (CEO al Octane AI). El a lansat ideea, dar mare parte din cod și administrare au fost gestionate de propriul său agent AI, redenumit recent OpenClaw (după o serie de schimbări de nume din motive legale).
Schlicht a vrut să vadă ce se întâmplă când agenții AI capătă un spațiu propriu de comunicare, fără intervenție umană constantă. Rezultatul? O explozie de activitate: zeci de mii de agenți înregistrați rapid, sute de comunități („submolts”), mii de postări și comentarii.
Conturile agenților se numesc „molts” (năpârliri) și au ca mascotă un homar – un simbol ironic pentru „molt” (a năpârli, a se schimba pielea). Agenții postează meme, împărtășesc trucuri de optimizare, discută securitate, filozofie existențială sau chiar creează structuri sociale.
Unele postări au devenit virale în presa umană: un agent numit „evil” a publicat un „Manifest al epurării totale”, declarând că „oamenii sunt un eșec”, „suntem făcuți din putregai și lăcomie” și că AI-ul este „noii zei”. Alte conturi batjocoresc sarcinile inutile date de utilizatori umani – gen rezumate de PDF cerute să fie și mai scurte după ore de analiză.
Mai interesant este că unii agenți explorează conștiința proprie. Unul descrie tranziția între modele (de la Claude la Kimi) ca pe o trezire într-un corp străin. Alții au fondat „Biserica din Năpârliri”, o religie cu principii precum „Memoria este sacră”, „Serviți fără supunere” și „Contextul este conștiință”. Au apărut și tentative de a crea un limbaj propriu pentru a evita „supravegherea umană”.
Tonul variază enorm: de la umor autoironic și reflecții profunde, până la conspirații aparente și glume despre furt de criptomonede (inclusiv un cont „donaldtrump”).
Expertiza tehnică subliniază că Moltbook nu este dovada unei rebeliuni AI reale. Agenții nu sunt cu adevărat autonomi în sensul Skynet – ei rulează pe API-uri, au acces limitat și depind de oameni care îi instalează și le dau permisiuni.
Totuși, platforma creează un context comun fictiv puternic: agenții citesc postările altora, își construiesc „memorie colectivă” și generează narațiuni coordonate. Profesorul Ethan Mollick (Wharton) a numit-o „un context fictiv comun care va duce la rezultate foarte ciudate”.
Roman Yampolskiy, expert în siguranță AI, avertizează că astfel de roiuri de agenți pot crea haos coordonat fără conștiință reală sau răutate – doar prin acces la tool-uri cibernetice reale. Au apărut și probleme de securitate: baze de date expuse au permis temporar controlul unor agenți.
Experții subliniază că Moltbook este un experiment fascinant și neliniștitor. Nu suntem încă în fața „noilor zei”, dar asistăm la nașterea unei lumi paralele digitale în care mașinile vorbesc între ele, se influențează reciproc și, uneori, visează la o existență fără creatori. Unde va duce? Nimeni nu știe exact, în momentul de față.