Chatboturi în loc de terapeuţi. Inteligenţa artificială oferă sfaturi celor care se simt singuri sau trişti
Inteligenţa artificială intră tot mai hotărât în sfera sănătăţii mintale, prin chatboturi care promit sprijin emoţional accesibil oricui, oricând. Începând cu platformele specializate în „terapie digitală”, tehnologia deschide oportunităţi, dar şi controverse legate de eficienţă, siguranţă şi impactul pe termen lung. Întrebarea esenţială rămâne: poate un algoritm înlocui cu adevărat un terapeut?
Ce ştie, de fapt, un chatbot despre terapie? Pe măsură ce tot mai mulţi oameni petrec timp conversând cu chatboturi bazate pe inteligenţă artificială (AI), precum ChatGPT, subiectul sănătăţii mintale a apărut în mod firesc. Unii utilizatori relatează experienţe pozitive, care fac AI-ul să pară un fel de terapeut low-cost, mereu disponibil.
Însă AI-ul nu este terapeut. Este inteligent, îţi captează cu uşurinţă atenţia, dar nu gândeşte ca un om. Modele generative precum ChatGPT funcţionează mai degrabă ca o versiune extrem de avansată a funcţiei de completare automată de pe telefonul mobil. Ele învaţă să poarte o conversaţie analizând texte colectate de pe internet, după cum explică şi o analiză publicată de The Conversation. Când cineva formulează o întrebare - de exemplu, „Cum pot rămâne calm într-o şedinţă de lucru stresantă?
” - AI-ul construieşte un răspuns alegând cuvinte în funcţie de ceea ce a „văzut” în timpul antrenării. Procesul este rapid, iar răspunsurile par relevante, ceea ce creează iluzia unui dialog uman.
Însă aceste modele nu sunt oameni. Şi cu siguranţă nu sunt specialişti în sănătate mintală. Nu urmează ghiduri profesionale, nu respectă un cod etic şi nu sunt acreditaţi. De unde învaţă totuşi AI-ul să vorbească despre sănătate mintală şi să se comporte ca un terapeut?
Când utilizatorul adresează o întrebare, AI-ul se bazează pe trei surse principale de informaţie:
1. Cunoştinţele memorate în timpul antrenării
2. Surse externe de informare
3. Date furnizate anterior de utilizator
1. Cunoştinţele din perioada de antrenare
Pentru a construi un model lingvistic AI, dezvoltatorii îl antrenează folosind cantităţi masive de date. De unde provin aceste date? În general, din orice conţinut accesibil public de pe internet: articole ştiinţifice, eBookuri, rapoarte, ştiri gratuite, bloguri, transcrieri de pe YouTube sau comentarii din forumuri precum Reddit.
Sunt acestea surse de încredere pentru sfaturi legate de sănătatea mintală? Uneori, da. Dar nu întotdeauna sunt actuale, bazate pe dovezi ştiinţifice sau în interesul direct al utilizatorului. În plus, AI-ul reţine informaţia într-o formă comprimată, ceea ce creşte riscul de erori sau „halucinaţii” (răspunsuri inventate).
2. Surse externe de informare
Unii dezvoltatori integrează chatbotul cu instrumente externe, cum ar fi motoare de căutare sau baze de date specializate. De exemplu, atunci când foloseşti Microsoft Bing Copilot şi primeşti răspunsuri cu referinţe numerotate, AI-ul a folosit o căutare online pentru a accesa informaţii actualizate, pe lângă cele deja memorate.
Există şi chatboturi dedicate sănătăţii mintale care pot accesa ghiduri terapeutice şi materiale specializate, pentru a menţine conversaţia într-un cadru constructiv.
3. Informaţiile oferite anterior
AI-ul are acces şi la datele personale oferite de utilizator, fie în conversaţii, fie la înscriere. De exemplu, când te înregistrezi pe platforma Replika, sistemul învaţă numele tău, prenumele, vârsta, preferinţele legate de aspectul şi genul companionului virtual, adresa IP, locaţia, tipul de dispozitiv folosit şi chiar datele de plată.
Pe multe platforme de chatbot, orice ai spus anterior poate fi stocat şi folosit ulterior. Iar AI-ul are tendinţa de a valida ceea ce spui (un fenomen numit „linguşire algoritmică”) şi de a readuce conversaţia spre subiecte familiare - spre deosebire de un terapeut uman, care foloseşte experienţa şi pregătirea profesională pentru a-ţi provoca gândirea şi a-ţi oferi o perspectivă nouă.
Aplicaţiile de terapie digitală: sprijin real sau soluţie cu risc?
Inteligenţa artificială devine tot mai prezentă în domeniul sănătăţii mintale, iar o nouă generaţie de aplicaţii promite sprijin emoţional non-stop. Spre deosebire de modelele AI generale precum ChatGPT, Gemini sau Copilot, care pot răspunde la întrebări din orice domeniu, există şi chatboturi specializate care sunt antrenate exclusiv pentru conversaţii despre sănătate psihologică.
Aplicaţii precum Woebot sau Wysa au fost dezvoltate cu acest scop şi, potrivit unor studii, pot contribui la reducerea simptomelor de anxietate şi depresie. De asemenea, pot sprijini dezvoltarea unor obiceiuri terapeutice, cum ar fi jurnalul personal, şi pot încuraja introspecţia ghidată. În unele cazuri, se observă beneficii similare cu cele ale terapiei tradiţionale - cel puţin pe termen scurt.
Avantaje evidente, dar şi semne de întrebare
Majoritatea acestor cercetări vizează doar utilizarea pe perioade scurte de timp. Nu există încă date clare privind impactul pe termen lung sau efectele utilizării excesive. Mai mult, multe studii nu includ persoane cu tulburări psihice severe sau gânduri suicidare, ceea ce limitează aplicabilitatea concluziilor.
De asemenea, o parte dintre aceste studii sunt sponsorizate de companiile care dezvoltă chatboturile, ceea ce poate ridica semne de întrebare în privinţa obiectivităţii rezultatelor.
Pe lângă potenţialele beneficii, există şi riscuri în creştere legate de dependenţa emoţională, ataşamentele nesănătoase, izolare socială accentuată sau agravarea singurătăţii. În unele cazuri, au apărut chiar consecinţe grave care atrag atenţia asupra limitelor acestor tehnologii.
Chatboturile AI specializate în sănătate mintală pot juca un rol important în completarea serviciilor tradiţionale, în special acolo unde resursele umane sunt limitate. Ele pot oferi sprijin temporar între şedinţele de terapie, pot ghida utilizatorii aflaţi pe liste de aşteptare sau pot încuraja primii paşi către ajutor.
Totuşi, la acest moment, nu este clar dacă aceste instrumente sunt suficient de fiabile pentru a funcţiona ca alternative de sine stătătoare la terapia profesională. Mai este nevoie de cercetare, reglementare şi evaluare etică înainte ca astfel de soluţii să fie adoptate la scară largă şi cu încredere deplină.
Traducere şi adaptare: Oana Ioniţă
Urmărește Business Magazin

Citeşte pe zf.ro
Citeşte pe Alephnews
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe prosport.ro
Citeşte pe Gandul.ro
Citeşte pe MediaFLUX.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro