Deepfake-uri, escrocherii şi bun venit în Epoca Paranoiei!
Când Nicole Yelland primeşte o cerere de întâlnire de la cineva pe care nu îl cunoaşte, efectuează o verificare a persoanei în mai mulţi paşi înainte de a decide dacă o acceptă. Yelland, care lucrează în relaţii publice pentru o organizaţie nonprofit cu sediul în Detroit, SUA, spune că verifică informaţiile despre acea persoană prin Spokeo, un agregator de date personale pentru care plăteşte un abonament lunar. Dacă personajul pretinde că vorbeşte spaniolă, explică ea, îi va testa treptat capacitatea de a înţelege şi traduce expresii mai dificile. Dacă ceva nu pare în regulă, va ruga persoana respectivă să se alăture unei discuţii pe Microsoft Teams - cu camera pornită.
Yelland nu doar pare paranoică. Chiar este. În ianuarie, înainte de a-şi intra în actualul rol într-o organizaţie nonprofit, a fost implicată într-o escrocherie elaborată care viza persoanele aflate în căutarea unui loc de muncă. „Acum, fac tot procesul de verificare de fiecare dată când cineva mă contactează”, declară Yelland pentru revista WIRED.
Escrocheriile cu impostori digitali nu sunt noi; platformele de mesagerie, site-urile de socializare şi aplicaţiile de dating au fost mult timp pline de falsuri. Într-o perioadă în care munca la distanţă şi echipele cu membrii răspândiţi în mai multe locuri au devenit ceva obişnuit, nici canalele de comunicare profesionale nu mai sunt sigure.
Aceleaşi instrumente de inteligenţă artificială despre care companiile de tehnologie promit că vor creşte productivitatea angajaţilor facilitează şi construirea de personaje false de către infractori şi escroci în doar câteva secunde.
Pe LinkedIn poate fi dificil să distingi o fotografie uşor retuşată a unei persoane reale de o copie prea procesată, generată de inteligenţa artificială. Videoclipurile deepfake devin atât de populare încât escrocii care foloseau e-mailuri tradiţionale se orientează către a se da drept anumite persoane în apeluri video live. Potrivit Comisiei Federale pentru Comerţ din SUA, rapoartele privind escrocheriile legate de locuri de muncă şi angajare aproape s-au triplat între 2020 şi 2024, iar pagubele reale cauzate de aceste falsuri au crescut de la 90 de milioane de dolari la 500 de milioane de dolari.
Yelland spune că escrocii care au abordat-o în ianuarie se dădeau drept o companie reală, una cu un produs legitim. „Directorul de personal” cu care a corespondat prin e-mail părea, de asemenea, legitim, distribuind chiar şi un document electronic de prezentare care sublinia responsabilităţile postului pe care îl promovau. Însă în primul interviu video, pe Microsoft Teams, spune Yelland, escrocii au refuzat să pornească camerele şi au făcut solicitări neobişnuite de informaţii personale detaliate, inclusiv numărul permisului ei de conducere. Realizând că este înşelată, Yelland şi-a închis laptopul.
Potrivit Comisiei Federale pentru Comerţ din SUA, rapoartele privind escrocheriile legate de locuri de muncă şi angajare aproape s-au triplat între 2020 şi 2024, iar pagubele reale cauzate de aceste falsuri au crescut de la 90 de milioane de dolari la 500 de milioane de dolari.
Aceste tipuri de scheme au devenit atât de răspândite încât au apărut startup-uri de inteligenţă artificială care promit să detecteze alte deepfake-uri bazate pe inteligenţă artificială, inclusiv GetReal Labs şi Reality Defender. Sam Altman, CEO-ul OpenAI, conduce şi un startup de verificare a identităţii numit Tools for Humanity, care produce dispozitive de scanare a ochilor ce captează datele biometrice ale unei persoane, creează un identificator unic pentru identitatea acesteia şi stochează aceste informaţii pe blockchain. Întreaga idee din spatele acestor proceduri este de a stabili dacă subiectul este o singură persoană sau dacă cineva este un om real. (Mulţi oameni care lucrează la tehnologia blockchain spun că blockchainul este soluţia pentru verificarea identităţii.)
Însă unii profesionişti din corporaţii apelează în schimb la tehnici de inginerie socială demodate pentru a verifica fiecare interacţiune ce pare suspectă pe care o au.
Bun venit în Era Paranoiei! Să nu vă miraţi dacă cineva vă roagă să-i trimiteţi un e-mail în timp ce sunteţi în mijlocul unei conversaţii telefonice, să accesaţi mesajele private de pe Instagram pentru a vă asigura că mesajul de pe LinkedIn a fost într-adevăr de la dumneavoastră sau să vă ceară să trimiteţi un selfie cu o marcă temporală pentru a dovedi că sunteţi cine pretindeţi a fi. Persoane care sunt colege spun că îşi stabilesc chiar şi cuvinte de cod între ele, aşa că au o modalitate de a se asigura că nu sunt induşi în eroare dacă o întâlnire pare ciudată.
„Ceea ce este amuzant este că abordarea lo-fi funcţionează”, spune Daniel Goldman, inginer software de blockchain şi fost fondator de startup. Goldman spune că a început să-şi schimbe propriul comportament după ce a auzit că o figură proeminentă din lumea cripto a fost duplicată deepfake în mod convingător într-un apel video. „Am devenit credincios de atunci”, spune el. Ulterior, şi-a avertizat familia şi prietenii că dacă aud ceea ce pare a fi vocea sa sau îl văd într-un apel video cerând ceva concret - cum ar fi bani sau o parolă de internet - ar trebui să întrerupă contactul şi să-i trimită un e-mail înainte de a face ceva.

Ken Schumacher, fondatorul serviciului de verificare pentru recrutări Ropes, spune că a lucrat cu directori de HR care pun candidaţilor pentru locuri de muncă întrebări rapide despre oraşul în care pretind că locuiesc în CV-ul lor, cum ar fi cafenelele şi locurile lor preferate de întâlnire. Dacă omul din faţa lor vine într-adevăr din acea regiune geografică, explică Schumacher, ar trebui să poată răspunde rapid cu detalii precise.
O altă tactică de verificare folosită de unii oameni, spune specialistul în HR, este ceea ce el numeşte „trucul camerei telefonului”. Dacă cineva suspectează că persoana cu care vorbeşte prin chat video nu este cine pretinde că este, îi poate cere să îndrepte camera telefonului spre laptop pentru a-i transmite imagini cu acesta. Ideea este de a verifica dacă persoana respectivă foloseşte tehnologie deepfake pe computerul său, ascunzându-şi adevărata identitate sau împrejurimile. Dar putem spune cu siguranţă că această abordare poate fi şi descurajantă: candidaţii oneşti la un loc de muncă pot ezita să-şi arate interiorul caselor sau birourile sau se pot îngrijora că un manager de recrutare încearcă să afle detalii despre viaţa lor personală. „Toată lumea este acum încordată şi precaută faţă de celălalt”, spune Schumacher.
Au apărut startup-uri de inteligenţă artificială care promit să detecteze deepfake-uri bazate pe inteligenţă artificială, inclusiv GetReal Labs şi Reality Defender.
Deşi transformarea într-un captcha uman poate fi o abordare destul de eficientă pentru securitatea operaţională, chiar şi cei mai paranoici recunosc că aceste verificări creează o atmosferă de neîncredere înainte ca ambele părţi să fi avut măcar şansa de a se conecta cu adevărat. De asemenea, pot fi o pierdere enormă de timp. „Simt că ceva trebuie să cedeze”, spune Yelland. „Pierd atât de mult timp la serviciu doar încercând să-mi dau seama dacă oamenii sunt reali.”
Jessica Eise, profesor asistent care studiază schimbările climatice şi comportamentul social la Universitatea Indiana Bloomington, spune că oamenii din echipa ei de cercetare au fost forţaţi să devină practic experţi în criminalistică digitală din cauza numărului de escroci care răspund la reclame pentru sondaje virtuale plătite. (Escrocii nu sunt la fel de interesaţi de sondajele neplătite, aşa cum şi este de aşteptat.) Pentru unul dintre proiectele ei de cercetare, care este finanţat cu fonduri federale, toţi participanţii online trebuie să aibă peste 18 ani şi să locuiască în SUA.
„Echipa mea verifica marcajele de timp pentru momentul în care participanţii au răspuns la e-mailuri şi, dacă momentul era suspect, puteam ghici că s-ar putea afla pe un alt fus orar”, povesteşte Eise. „Apoi căutam alte indicii pe care am ajuns să le recunoaştem, cum ar fi anumite formate de adrese de e-mail sau date demografice incoerente.”
Eise spune că timpul petrecut de echipa ei pentru a verifica persoanele a fost „exorbitant” şi că acum au redus dimensiunea cohortei pentru fiecare studiu şi au apelat la „eşantionarea prin bulgăre de zăpadă” sau la recrutarea de persoane pe care le cunosc personal pentru a se alătura studiilor lor. Cercetătorii distribuie, de asemenea, mai multe pliante fizice pentru a solicita participanţi în persoană. „Ne pasă foarte mult să ne asigurăm că datele noastre au integritate, că studiem pe cine spunem că încercăm să studiem”, explică ea. „Nu cred că există o soluţie uşoară pentru asta.”
Cu excepţia unei soluţii tehnice pe scară largă, puţină atenţie poate fi de mare ajutor în identificarea actorilor răi. Prezentările false pentru un loc de muncă primite de Yelland sunt credibile la prima vedere, dar la o analiză mai atentă câteva detalii ies în evidenţă. Postul promitea o remuneraţie substanţial mai mare decât salariul mediu pentru un rol similar în oraşul ei şi oferea concediu de odihnă nelimitat, concediu parental plătit generos şi beneficii medicale complete. În mediul actual de pe piaţa muncii, acesta ar fi putut fi cel mai important indiciu că este o înşelătorie.
Traducere şi adaptare: Bogdan Cojocaru
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe alephnews.ro
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe MediaFLUX.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro













