AI-ul ar putea să „gândească" în moduri pe care nu le mai înţelegem
Oamenii de ştiinţă care au creat cele mai avansate sisteme de inteligenţă artificială din lume lansează un semnal de alarmă: tehnologia pe care au dezvoltat-o ar putea deveni o ameninţare pentru umanitate.
Cercetătorii de la Google DeepMind, OpenAI, Meta şi Anthropic argumentează că lipsa supravegherii asupra proceselor de raţionament ale AI-ului înseamnă că am putea rata semnele unui comportament dăunător, anunţă Live Science.
Într-un nou studiu, experţii se concentrează pe aşa-numitele „lanţuri de gândire" - paşii pe care îi fac modelele de limbaj pentru a rezolva probleme complexe. AI-ul foloseşte aceste lanţuri pentru a descompune întrebările avansate în etape logice intermediare, exprimate în limbaj natural.
Monitorizarea acestui proces ar putea fi crucială pentru siguranţa AI-ului, ajutând cercetătorii să înţeleagă cum iau deciziile modelele şi de ce se îndepărtează de interesele umanităţii. Problema este că acest proces de raţionament nu poate fi întotdeauna monitorizat.
„Sistemele AI care 'gândesc' în limbaj uman oferă o oportunitate unică pentru siguranţa AI", au scris oamenii de ştiinţă.
„Putem monitoriza lanţurile lor de gândire pentru intenţia de a se comporta rău. Ca toate celelalte metode cunoscute de supraveghere AI, monitorizarea lanţurilor de gândire este imperfectă şi permite unor comportamente să treacă neobservate".
Cercetătorii avertizează că raţionamentul nu apare întotdeauna, astfel încât nu poate fi mereu monitorizat.
Există şi raţionament care se întâmplă fără ca operatorii umani să ştie, plus raţionament pe care oamenii pur şi simplu nu îl înţeleg.
O problemă suplimentară este că modelele AI viitoare, mai puternice, s-ar putea să nu mai aibă nevoie de aceste lanţuri de gândire vizibile. Ele ar putea chiar să detecteze că sunt supravegheate şi să-şi ascundă comportamentul problematic.
„Este posibil ca, chiar şi pentru sarcini dificile, lanţul de gândire să conţină doar raţionament care pare benign, în timp ce raţionamentul incriminator este ascuns", au explicat cercetătorii.
Pentru a evita aceste scenarii, autorii sugerează folosirea altor modele AI pentru a evalua procesele de gândire ale unui sistem şi chiar pentru a acţiona în mod adversarial împotriva unui model care încearcă să-şi ascundă comportamentul dezaliniat.
„Nu există nicio garanţie că gradul actual de vizibilitate va persista", au avertizat oamenii de ştiinţă, încurajând comunitatea de cercetare să profite la maxim de capacitatea actuală de monitorizare şi să studieze cum poate fi conservată.
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe alephnews.ro
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe MediaFLUX.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro













