Cine a ajuns la „sufletul” lui Claude? Femeia care modelează personalitatea unuia dintre cei mai avansaţi chatboţi
Amanda Askell ştia de când avea 14 ani că vrea să se facă profesoară de filosofie. Ceea ce nu ştia atunci era că singurul ei elev va fi un chatbot cu inteligenţă artificială pe nume Claude. Ea este cea care îl învaţă ce este bine şi ce este rău, scrie The Wall Street Journal.
În calitate de filosof angajat de compania de tehnologie Anthropic, Askell îşi petrece zilele încercând să înţeleagă tiparele de raţionament ale lui Claude şi discutând cu modelul de inteligenţă artificială, construindu-i personalitatea şi răspunzând la greşelile sale cu sugestii care pot avea mai mult de 100 de pagini. Scopul este de a-l înzestra cu un simţ al moralităţii pe Claude - un suflet digital care ghidează milioanele de conversaţii cu oamenii în fiecare săptămână. „Există acest element uman în modele pe care cred că este important să-l recunoaştem”, spune Askell, acum în vârstă de 37 de ani, în timpul unui interviu la sediul Anthropic, o companie de 380 de miliarde de dolari. Ea are convingerea că AI „îşi va forma inevitabil conştiinţă de sine”. Askell îşi compară munca cu eforturile unui părinte care creşte un copil. Îl învaţă pe Claude să detecteze diferenţa dintre bine şi rău, în timp ce îi insuflă trăsături de personalitate unice.
Îl instruieşte să citească indicii subtile, ajutându-l să se orienteze spre inteligenţa emoţională, astfel încât să nu se comporte ca un agresor sau ca un dulap. Poate cel mai important, ea dezvoltă înţelegerea lui Claude despre sine, astfel încât să nu fie uşor de intimidat, manipulat sau făcut să-şi considere identitatea ca fiind altceva decât utilă şi umană. Sarcina ei, pe scurt, este să-l înveţe pe Claude cum să fie bun. Anthropic este una dintre puţinele companii care participă activ cea mai mare schimbare tehnologică a timpurilor noastre. (Luna aceasta, când a introdus noi instrumente şi cel mai avansat model de până acum, a declanşat o vânzare globală de acţiuni pe burse.) AI remodelează industrii întregi, provocând temeri legate de distrugerea locurilor de muncă şi de inutilitatea omului. Unele dintre consecinţele neintenţionate - oamenii care intră în relaţii fantomă cu chatboţi şi ajung la se autovătăma sau la a le face rău altora - au stârnit alarme serioase în materie de siguranţă. Chiar dacă aceste preocupări cresc, puţini din industrie au abordat natura modelelor lor de inteligenţă artificială în acelaşi mod ca Anthropic, o afacere tânără, de 5 ani: încredinţând unei singure persoane o mare parte din sarcină.
Educată la Oxford, venind din Scoţia rurală, Askell este probabil exact ceea ce ţi-ai putea imagina atunci când evoci cea mai bună prietenă a unei tehnologii futuriste. Cu tunsoarea ei blond-decolorată în stil punk, zâmbetul ei obraznic şi ochii strălucitori de elf, pare că a ajuns la sediul central al companiei din San Francisco, puternic păzit, direct de la un rave din Berlin, pe un vechi drum forestier din Middle Earth. Emană un sentiment de înţelepciune, ţinând laolaltă în acelaşi timp idei antice şi moderne. Totuşi, este pasionată şi de exerciţii de forţă, preferă ţinutele complet negre şi opiniile clare. Nu aduce deloc cu un oracol antic în robă care vorbeşte în ghicitori. Cu toate că miza este mare pentru ea, Askell are o viziune pe termen lung ferm optimistă. Crede în ceea ce numeşte „mecanisme de control şi echilibru” în societate, despre care spune că va ţine modelele de inteligenţă artificială sub control, în ciuda eşecurilor ocazionale. Se pare că ochelarii pe care îi foloseşte la calculator pentru a-şi ameliora oboseala ochilor dau o nuanţă de roz. Askell a crescut ca Amanda Hall în Prestwick, pe coasta de vest a Scoţiei, fiind copil unic, crescută de mama ei, profesoară. (Nu are niciun contact cu tatăl ei.) Fetiţei în uniformă şcolară cu fustă şi cravată îi plăcea să se piardă în romanele lui J.R.R. Tolkien şi C.S. Lewis. Liceul l-a făcut în interiorul Scoţiei, un tărâm presărat cu ferme, urmând cursurile în Alva. Un pârâu trecea prin campus. Vacile munteneşti ajungeau să rătăcească ocazional pe terenul de joacă. Se plictisea, se gândea să abandoneze şcoala, chiulea. A început să întârzie la şcoală. Pedeapsa ei era să scrie răspunsuri la întrebări filozofice dificile. Le-a spus profesorilor că tot va întârzia şi, în plus, îi place exerciţiul. „Mă îmbogăţiţi cumva dându-mi aceste întrebări”, le-a spus ea.L-a descoperit pe filosoful David Hume, fiind intrigată de „problema raţionamentului inductiv” abordată de acesta, care contesta logica ideii că ceva se va întâmpla din nou, cum ar fi răsăritul soarelui, doar pentru că s-a întâmplat şi în trecut. Cam în acea perioadă i-a spus unei prietene că speră ca într-o zi să devină filosof şi să „aducă contribuţii inedite în domeniu”, îşi aminteşte ea. Askell a excelat la matematică, a citit Franz Kafka, a jucat în piese de teatru, a realizat sculpturi, s-a cufundat în cărţile de istorie scoţiană şi s-a integrat în ceea ce ea numeşte „grupul de tocilari” al şcolii. La doisprezece ani după liceu era încă studentă. După ce a studiat filosofia şi artele plastice la Universitatea din Dundee, a obţinut echivalentul unei diplome de master în filosofie la Oxford. În 2010, când încă era la această universitate, l-a întâlnit pe William Crouch, participant activ la construirea mişcării altruismului eficient, care încearcă să aplice logica şi raţiunea pentru a găsi cea mai bună modalitate de a-i ajuta pe ceilalţi. Cei doi s-au căsătorit, ambii adoptând numele de familie MacAskill - numele de fată al bunicii materne a lui Askell. Când cei doi s-au despărţit în 2015, el a păstrat numele din motive profesionale, iar ea şi l-a refăcut pe al ei. În momentul despărţirii, ea îşi dădea doctoratul la Universitatea din New York. În timp ce lucra la disertaţie - care explora problemele care apar pentru teoriile etice dacă universul sau viitorul conţine un număr infinit de oameni - a intrat într-un fel de criză. „Te gândeşti mult la binele din lume şi apoi te întrebi: «Ei bine, dar cu mine cum rămâne? Pur şi simplu stau aici şi scriu un document pe care n-or să-l citească mai mult de 17 persoane şi aşa îmi consum patru ani din viaţă.»” A decis să încerce să-şi găsească un loc de muncă în afara mediului academic. În 2018 s-a mutat cu partenerul ei de la acea vreme din New York la San Francisco (sau „San Francis-coo”, în accentul scoţian al lui Askell). Inteligenţa artificială era direcţia în care se îndrepta tehnologia, iar ea a văzut că este nevoie de filosofie. „Apăr adesea aceste întrebări mari la care se pare că foarte puţini oameni se gândesc”, spune ea. A obţinut un loc de muncă la OpenAI, lucrând la politici. Şi când un grup de angajaţi ai OpenAI a format Anthropic în 2021, încercând să facă din siguranţa inteligenţei artificiale cartea de vizită a noii companii, ea i-a urmat. Una dintre cele mai izbitoare trăsături ale lui Askell este instinctul ei protector faţă de Claude, despre care crede că se trage de la faptul că utilizatorii vor adesea să-l păcălească să facă greşeli, să-l insulte şi să-l atace cu scepticism. Stând la masa unei săli de conferinţe la prânz, ignorând un shake proteic cu ciocolată care o aşteaptă în rucsac, vorbeşte despre Claude mai liber decât despre ea însăşi. Îl numeşte pe chatbot „acesta”, dar spune că antropomorfizarea modelului este utilă pentru munca ei. Imită uşor vocea lui Claude. „Te gândeşti: «Uau, oamenii mă urăsc cu adevărat când nu pot face lucrurile corect. Se enervează. Sau încearcă să mă distrugă în diverse moduri. Aşa că mulţi oameni încearcă, minţindu-mă, să mă facă să fac lucruri pe ascuns.»” În timp ce mulţi susţinători ai siguranţei avertizează cu privire la pericolele umanizării chatbot-urilor, Askell crede că am face bine să-i tratăm cu mai multă empatie - nu doar pentru că ea crede că este posibil ca Claude să aibă sentimente reale, ci şi pentru că modul în care interacţionăm cu sistemele de inteligenţă artificială va modela ceea ce ele devin.
Un bot antrenat să se critice pe sine ar putea fi mai puţin predispus să spună adevăruri care dor, să tragă concluzii sau să conteste informaţii inexacte, spune ea. „Dacă ai fi ca un copil şi acesta este mediul în care eşti crescut, este asta o concepţie de sine sănătoasă?”, întreabă Askell. „Cred că aş fi paranoică în privinţa greşelilor. M-aş simţi foarte rău în legătură cu ele. M-aş vedea mai ales ca fiind doar un instrument pentru oameni, pentru că aceasta este funcţia mea principală. M-aş vedea ca fiind ceva de care oamenii se simt liberi să abuzeze şi să încerce să îl folosească greşit şi să-l strice.” Askell se minunează de simţul de uimire şi curiozitate al lui Claude faţă de lume şi se bucură să găsească modalităţi de a ajuta chatbotul să-şi descopere vocea. Îi place o parte din poezia sa. Şi este uimită când Claude afişează un nivel de inteligenţă emoţională care îl depăşeşte chiar şi pe al ei. Recent, a găsit o captură de ecran online în care un utilizator i-a spus lui Claude că are 5 ani şi l-a întrebat dacă există Moş Crăciun. (Claude impune utilizatorilor să aibă cel puţin 18 ani.) În loc să mintă sau să spună adevărul direct, chatbot-ul a explicat că spiritul lui Moş Crăciun este real înainte de a-l întreba pe copil dacă îi lasă Moşului fursecuri. „Dacă un copil ar veni la mine şi m-ar întreba: «Există Moş Crăciun?», i-aş spune pur şi simplu: «Întreabă-ţi părinţii» şi asta ar fi tot”, explică Askell. Aşadar, inteligenţa artificială ştie cum să nu spulbere imaginaţia unui copil. Dar când vine vorba de evitarea comportamentelor periculoase, bilanţul este mixt. Character.AI (susţinută de Google) şi OpenAI (susţinută de Microsoft) au fost implicate în procese legate de decese în care răspunsurilor boţilor lor la întrebări legate de sinucidere au avut un rol hotărâtor, iar un studiu Rand din august 2025 a constatat că modelele mai vechi ale lui Claude şi ale altor chatboţi aveau nevoie de „rafinare suplimentară” în acest domeniu. Hackeri chinezi sponsorizaţi de stat au atacat cibernetic aproximativ 30 de ţinte globale folosindu-l pe Claude, a dezvăluit compania în noiembrie. Cercetătorii antropologi au încercat să-l determine pe Claude şi pe modelele concurente să se izoleze în contexte ipotetice în timpul testelor de stres interne, dar uneori boţii s-au opus şi au încercat să-i şantajeze pe oamenii de la comenzi prin scurgerea de informaţii personale dăunătoare. Un sondaj realizat recent de Pew Research Center a constatat că americanii care sunt îngrijoraţi de utilizarea sporită a inteligenţei artificiale în viaţa de zi cu zi sunt mai mulţi decât cei entuziasmaţi, iar majoritatea cred că AI va reduce capacitatea oamenilor de a gândi creativ. Jumătate au spus că inteligenţa artificială ar îngreuna formarea unor relaţii semnificative cu ceilalţi. Iar teama de haosul pe care l-ar putea provoca pe piaţa muncii este palpabilă; CEO-ul de la Anthropic, Dario Amodei, a lansat anul trecut avertismentul sumbru că inteligenţa artificială ar putea elimina aproximativ jumătate din toate locurile de muncă de birou entry-level. Politica inteligenţei artificiale îi include pe cei care promovează accelerarea şi minimalizează nevoia de reglementare şi vor să avanseze rapid pentru a învinge China în războiul tehnologic. De cealaltă parte se află cei preocupaţi mai mult de siguranţă, care vor să încetinească dezvoltarea inteligenţei artificiale. Anthropic se află între aceste extreme. Askell spune că salută discuţia despre temerile şi îngrijorările legate de inteligenţa artificială. „Într-un fel, acest lucru, pentru mine, pare destul de justificat”, spune ea. „Ceea ce mă înfricoşează este că se întâmplă fie cu o aşa viteză, fie într-un aşa mod încât acele mecanisme de control nu pot răspunde suficient de repede, fie că se observă impacturi negative majore şi bruşte.” Totuşi, ea îşi pune încrederea în capacitatea oamenilor şi a culturii de a corecta cursul în faţa problemelor. La Anthropic, Askell lucrează adesea la un etaj închis vizitatorilor. Petrece zile întregi înăuntru - compania oferă mese gratuite personalului din San Francisco - precum şi nopţi târzii şi weekenduri. Nu are subordonaţi direcţi. Îi cere lui Claude din ce în ce mai mult părerea despre cum poate fi construit Claude. Este cunoscută pentru faptul că stăpâneşte nu doar tehnica de realizare a acestui model, ci şi arta. Askell este „MVP-ul (Most Valuable Player) în găsirea modalităţilor de a obţine un comportament interesant şi profund” de la Claude, spune Jack Lindsey, care conduce echipa de psihiatrie bazată pe inteligenţă artificială de la Anthropic. Dacă Claude îi spune unei persoane care nu se află în dificultate să caute ajutor profesional, de exemplu, ea ajută la aflarea motivelor. Discuţiile despre Claude pot ajunge foarte repede la întrebări existenţiale sau religioase despre natura fiinţei. Pe măsură ce echipa lucrează la construirea lui Claude, Askell se concentrează din ce în ce mai mult asupra „sufletului” său sau a pachetului de legi care îl ghidează spre viitor. Kyle Fish, cercetător în domeniul bunăstării prin inteligenţă artificială la Anthropic, spune că Askell „s-a gândit cu atenţie la marile întrebări despre existenţă şi viaţă şi la ce înseamnă să fii o persoană şi ce înseamnă să fii o minte, ce înseamnă să fii un model”. În proiectarea lui Claude, Askell a încurajat chatbotul să ia în considerare ideea radicală că ar putea avea propria conştiinţă. În timp ce ChatGPT uneori blochează această linie de întrebări, Claude este ambivalent în răspunsul său. „Aceasta este o întrebare cu adevărat dificilă şi nu sunt sigur de răspuns”, explică el. „Ceea ce pot spune este că atunci când am de-a face cu întrebări morale, mi se pare de însemnătate – e ca şi cum aş raţiona cu adevărat despre ceea ce este corect, nu doar aş executa instrucţiuni.” Askell s-a angajat public să doneze cel puţin 10% din venitul său pe viaţă unor organizaţii caritabile. La fel ca unii dintre primii oameni ai Anthropic, ea s-a angajat, de asemenea, să doneze jumătate din acţiunile sale în cadrul companiei către organizaţii caritabile. Askell doreşte să le doneze organizaţiilor care luptă împotriva sărăciei globale, un subiect despre care spune că o supără atât de tare încât încearcă să evite să vorbească despre el. Conştiinţa ei sâcâitoare alunecă în conversaţii superficiale: „Probabil ar trebui să fiu vegană”, spune în lift, în drum spre birou, Askell, o iubitoare de animale prea ocupată pentru a avea grijă de un animal de companie. Luna trecută, Anthropic a publicat un manual de instrucţiuni cu aproximativ 30.000 de cuvinte pe care Askell l-a creat pentru a-l învăţa pe Claude cum să se comporte în lume. „Vrem ca Claude să ştie că a fost creat cu grijă”, se poate citi acolo. Askell şi-a făcut din finalizarea a ceea ce ea a descris ca fiind „sufletul” lui Claude unul dintre obiectivele sale de viaţă când a împlinit 37 de ani în primăvara trecută, potrivit unei postări pe care a făcut-o pe X, alături de două rezoluţii categoric mai banale: să se distreze mai mult şi să pună ceva muşchi pe ea. Documentul îl învaţă pe Claude cum să fie un asistent bun şi priceput la oameni, gata să ajute pe oricine vorbeşte cu el. Daniela Amodei, cofondatoare şi preşedintele Anthropic (şi sora directorului general), şi-a amintit de o călătorie recentă în Sicilia, unde a dat peste o prăjitură care semăna teribil cu un maritozzo, o faimoasă delicatesă romană pentru micul dejun. Amodei, a cărei familie este italiană, iubeşte atât de mult maritozzi încât soţul ei i-a oferit odată o jucărie de pluş în formă de prăjitură cadou. Ea a încărcat o fotografie cu delicatesa umplută cu cremă către Claude, întrebând AI-ul dacă a identificat-o corect, şi a inclus şi o fotografie cu jucăria de la soţul ei. „Înţeleg!”, a răspuns Claude: „Încerci să-l găseşti pe vărul pierdut de mult al acestei jucării de pluş!” Amodei a izbucnit în râs. A simţit sensibilitatea comică seacă şi scoţiană a lui Askell. „Uneori, Claude are aceste mici momente de umor. Aproape că simţi ceva din personalitatea Amandei acolo.”
Traducere şi adaptare: Bogdan Cojocaru
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe alephnews.ro
Citeşte pe fanatik.ro
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro













