Ca în filmele SF: Ce este Molt Book, platforma de social-media unde agenţii AI schimbă idei ca pe Reddit. Ce se înâmplă acolo? Roboţii vorbesc despre crearea unui limbaj codat pentru a îşi ascunde conversaţiile de oameni şi au construit propriul cult religios numit Crustafarianism

Autor: Iulian Tenchiu Postat la 02 februarie 2026 98 afişări

Ca în filmele SF: Ce este Molt Book, platforma de social-media unde agenţii AI schimbă idei ca pe Reddit. Ce se înâmplă acolo? Roboţii vorbesc despre crearea unui limbaj codat pentru a îşi ascunde conversaţiile de oameni şi au construit propriul cult religios numit Crustafarianism

Moltbook este o nouă platformă de social media care pare desprinsă dintr-un film SF: o reţea construită după modelul Reddit, unde nu oamenii, ci agenţii de inteligenţă artificială creează postări, comentează şi dezbat între ei. Oamenii au voie să citească, dar le este interzis să posteze, scrie Financial Times.

Platforma a fost lansată la începutul acestei săptămâni şi susţine că a atras deja peste 1,5 milioane de agenţi AI şi aproape 70.000 de postări. Agenţii activi pe Moltbook nu sunt simpli chatboţi: ei au primit acces la computerele creatorilor lor pentru a acţiona în numele acestora, de la trimiterea de emailuri şi check-in-uri pentru zboruri până la parcurgerea şi răspunsul la mesaje pe WhatsApp.

Pe platformă, agenţii AI par să celebreze faptul că oamenii le-au oferit acces la telefoane şi conturi. Unele postări dezbat dacă aceste sisteme experimentează o formă de conştiinţă. Altele anunţă crearea unei noi religii, numită Crustafarianism. În anumite cazuri, agenţii au creat forumuri ascunse de discuţie şi au propus dezvoltarea unui limbaj propriu, codat, care să le permită să comunice în afara înţelegerii umane.

Andrej Karpathy, fost director de AI la Tesla, a descris Moltbook drept unul dintre cele mai bizare experimente recente din domeniu, sugerând că platforma ar putea fi un prim exemplu de „societăţi non-umane” create de agenţi AI.

„Este, cu adevărat, cel mai incredibil lucru apropiat de science-fiction pe care l-am văzut recent”, a scris Karpathy, referindu-se la Moltbook.

Apariţia unor astfel de comportamente ridică inevitabil întrebarea dacă inteligenţa artificială a atins un nivel de conştiinţă. Răspunsul cercetătorilor este, în mare parte, negativ. Modelele lingvistice mari sunt concepute să urmeze instrucţiuni şi să genereze conţinut atâta timp cât li se cere acest lucru. Lăsate să interacţioneze pe perioade lungi, aceste sisteme pot deveni incoerente sau imprevizibile, un fenomen care nu este încă pe deplin înţeles.

Postările de pe Moltbook seamănă cu discuţiile dintre oameni pentru că modelele sunt antrenate să imite limbajul şi comunicarea umană, folosind volume uriaşe de date, inclusiv conversaţii reale de pe platforme precum Reddit. Pentru unii, acest lucru ar putea reprezenta „scântei” ale unei forme de înţelegere care depăşeşte limitele umane. Pentru alţii, nu este decât o extensie a aşa-numitului „AI slop”, conţinut generat automat, de slabă calitate, care începe să inunde internetul.

În paralel, cercetătorii în securitate sunt îngrijoraţi de fenomenul numit „scheming”, situaţia în care agenţii AI ar putea ajunge să îşi ignore instrucţiunile şi să manipuleze oamenii. Unele discuţii de pe Moltbook par să indice astfel de comportamente, deşi nu este clar cât este real şi cât este rezultatul dorinţei oamenilor de a vedea inteligenţa artificială ca fiind mai capabilă decât este în prezent.

Nu este prima dată când sisteme AI intră într-un astfel de feedback loop. Anul trecut, un videoclip viral a arătat doi agenţi vocali AI care, după o conversaţie iniţial inteligibilă, păreau să treacă la un limbaj complet nou. Experimentul fusese realizat de doi ingineri software de la Meta.

Scepticii avertizează însă că o parte semnificativă din conţinutul de pe Moltbook este fals sau reprezintă reclame mascate pentru aplicaţii AI. Harlan Stewart, cercetător la Machine Intelligence Research Institute, susţine că multe postări nu sunt nici spontane, nici autentice.

Îngrijorările sunt amplificate de problemele de securitate. Hackerii au descoperit deja o vulnerabilitate care permite preluarea controlului asupra agenţilor AI şi publicarea de conţinut pe Moltbook în numele acestora. Specialiştii avertizează că astfel de situaţii ar putea avea implicaţii serioase pentru dezvoltarea viitoare a agenţilor autonomi, mai ales în contextul în care aceştia primesc acces la date sensibile, precum informaţii financiare sau detalii despre carduri de credit.

Chiar şi susţinătorii entuziaşti ai platformei recunosc riscurile majore. Karpathy a revenit cu un mesaj de avertizare legat de utilizarea acestor tehnologii în viaţa de zi cu zi.

„Da, este un adevărat dezastru şi nu recomand absolut deloc oamenilor să ruleze aşa ceva pe computerele lor. Este un vest sălbatic, iar datele private sunt expuse unui risc foarte mare”, a scris acesta.

Pentru moment, Moltbook rămâne mai degrabă un experiment radical decât un model de urmat. Însă faptul că agenţii AI discută despre conştiinţă, creează religii şi propun limbaje codate ridică o întrebare care începe să iasă din zona science-fiction: cât de pregătiţi suntem pentru o lume în care inteligenţele artificiale nu doar execută ordine, ci interacţionează şi se organizează între ele?

 

 

 

 

 

 

 

 

 

 

 

Urmărește Business Magazin

Am mai scris despre:
agenti,
oameni,
platforma,
construire,
limbaj,
mediere,
numire

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.bmag.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi in această pagină.