AI-ul ar putea să „gândească" în moduri pe care nu le mai înţelegem

Autor: Andreea Tobias Postat la 24 iulie 2025 34 afişări

Oamenii de ştiinţă care au creat cele mai avansate sisteme de inteligenţă artificială din lume lansează un semnal de alarmă: tehnologia pe care au dezvoltat-o ar putea deveni o ameninţare pentru umanitate.

AI-ul ar putea să „gândească" în moduri pe care nu le mai înţelegem

Cercetătorii de la Google DeepMind, OpenAI, Meta şi Anthropic argumentează că lipsa supravegherii asupra proceselor de raţionament ale AI-ului înseamnă că am putea rata semnele unui comportament dăunător, anunţă Live Science.

Într-un nou studiu, experţii se concentrează pe aşa-numitele „lanţuri de gândire" - paşii pe care îi fac modelele de limbaj pentru a rezolva probleme complexe. AI-ul foloseşte aceste lanţuri pentru a descompune întrebările avansate în etape logice intermediare, exprimate în limbaj natural.

Monitorizarea acestui proces ar putea fi crucială pentru siguranţa AI-ului, ajutând cercetătorii să înţeleagă cum iau deciziile modelele şi de ce se îndepărtează de interesele umanităţii. Problema este că acest proces de raţionament nu poate fi întotdeauna monitorizat.

„Sistemele AI care 'gândesc' în limbaj uman oferă o oportunitate unică pentru siguranţa AI", au scris oamenii de ştiinţă.

„Putem monitoriza lanţurile lor de gândire pentru intenţia de a se comporta rău. Ca toate celelalte metode cunoscute de supraveghere AI, monitorizarea lanţurilor de gândire este imperfectă şi permite unor comportamente să treacă neobservate".

Cercetătorii avertizează că raţionamentul nu apare întotdeauna, astfel încât nu poate fi mereu monitorizat.

Există şi raţionament care se întâmplă fără ca operatorii umani să ştie, plus raţionament pe care oamenii pur şi simplu nu îl înţeleg.

O problemă suplimentară este că modelele AI viitoare, mai puternice, s-ar putea să nu mai aibă nevoie de aceste lanţuri de gândire vizibile. Ele ar putea chiar să detecteze că sunt supravegheate şi să-şi ascundă comportamentul problematic.

„Este posibil ca, chiar şi pentru sarcini dificile, lanţul de gândire să conţină doar raţionament care pare benign, în timp ce raţionamentul incriminator este ascuns", au explicat cercetătorii.

Pentru a evita aceste scenarii, autorii sugerează folosirea altor modele AI pentru a evalua procesele de gândire ale unui sistem şi chiar pentru a acţiona în mod adversarial împotriva unui model care încearcă să-şi ascundă comportamentul dezaliniat.

„Nu există nicio garanţie că gradul actual de vizibilitate va persista", au avertizat oamenii de ştiinţă, încurajând comunitatea de cercetare să profite la maxim de capacitatea actuală de monitorizare şi să studieze cum poate fi conservată.

Urmărește Business Magazin

Am mai scris despre:
ai,
ameninţare,

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.bmag.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi in această pagină.