OpenAI se blindează împotriva spionajului industrial: Compania implementează măsuri dure pentru a contracara tentativele de furt tehnologic din partea rivalilor chinezi în domeniul AI
OpenAI, compania din spatele celei mai avansate inteligenţe artificiale comerciale din lume, şi-a reorganizat complet sistemele de securitate internă, în încercarea de a proteja tehnologia de spionajul corporatist — în special din partea unor competitori chinezi, raportează Financial Times.
Surse apropiate companiei din San Francisco, evaluată la peste 300 de miliarde de dolari, au confirmat că în ultimele luni s-au implementat politici mult mai stricte privind accesul la informaţii sensibile, alături de o verificare riguroasă a angajaţilor noi şi existenţi.
Deşi OpenAI începuse să-şi consolideze securitatea încă de anul trecut, măsurile au fost accelerate după ce start-up-ul chinez DeepSeek a lansat în ianuarie un model rival. OpenAI a acuzat public compania chineză că ar fi copiat neautorizat modelele sale, folosind o metodă cunoscută sub numele de „distilare” — o tehnică ce permite recrearea unui sistem AI dintr-un model deja existent, fără a avea acces direct la codul sursă.
DeepSeek nu a oferit niciun comentariu oficial privind acuzaţiile.
Un membru al echipei de securitate OpenAI a declarat că incidentul a determinat compania să devină „mult mai riguroasă” în ceea ce priveşte protecţia informaţiilor.
Sub conducerea lui Sam Altman, OpenAI a început o expansiune „agresivă” a echipelor de securitate cibernetică şi a protocoalelor interne.
Intensificarea competiţiei globale în domeniul inteligenţei artificiale a amplificat temerile legate de furtul tehnologic, care ar putea avea implicaţii grave asupra economiei şi securităţii naţionale. Autorităţile americane au avertizat anul trecut că adversari externi, în special China, îşi intensifică eforturile de a obţine date sensibile de la companiile din sectorul tech.
Potrivit unor angajaţi OpenAI, compania a început încă din vara trecută să aplice politici mai stricte la sediul din San Francisco, limitând accesul la informaţii esenţiale despre algoritmi şi produse în curs de dezvoltare.
Aceste politici, cunoscute intern drept „tenting” informaţional, reduc drastic numărul persoanelor care pot avea acces la algoritmii avansaţi. De exemplu, în timpul dezvoltării modelului „o1”, cunoscut intern sub numele de cod „Strawberry”, angajaţii erau instruiţi să verifice dacă interlocutorii lor făceau parte din „cortul Strawberry” înainte de a discuta subiectul în spaţiile comune de birou.
Această abordare strictă a creat dificultăţi în rândul echipelor. „Era totul sau nimic — ori aveai acces complet, ori nu ştiai nimic”, a spus un angajat. Totuşi, în timp, sistemul a devenit mai nuanţat: „Oamenii au început să primească acces doar la informaţiile strict necesare pentru rolul lor.”
În prezent, OpenAI izolează o mare parte din tehnologia proprietară în medii securizate, offline, complet separate de reţelele standard. În plus, birourile companiei sunt dotate cu sisteme biometrice — accesul în unele camere este posibil doar pe baza amprentei digitale.
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe alephnews.ro
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe MediaFLUX.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro













