Anthropic caută expert în arme pentru a opri „utilizarea abuzivă catastrofală” a programului lor

Autor: Alexandra-Valentina Dumitru Postat la 17 martie 2026 12 afişări

Compania americană de inteligenţă artificială (IA) Anthropic caută să angajeze un expert în arme chimice şi explozivi de mare putere pentru a încerca să prevină „utilizarea abuzivă catastrofală” a software-ului său.

Cu alte cuvinte, se teme că instrumentele sale de IA ar putea indica cuiva cum să fabrice arme chimice sau radioactive şi doreşte ca un expert să se asigure că măsurile de protecţie sunt suficient de solide, potrivit BBC.

În anunţul de recrutare de pe LinkedIn, firma precizează că candidaţii trebuie să aibă o experienţă de cel puţin cinci ani în „apărarea împotriva armelor chimice şi/sau a explozivilor”, precum şi cunoştinţe despre „dispozitive de dispersie radiologică”, cunoscute şi sub denumirea de bombe murdare.

Firma a declarat pentru BBC că rolul este similar cu posturile din alte domenii sensibile pe care le-a creat deja.

Anthropic nu este singura firmă de IA care adoptă această strategie.

Un post similar a fost publicat de OpenAI, dezvoltatorul ChatGPT. Pe site-ul său de recrutare, compania listează un post vacant pentru un cercetător în „riscuri biologice şi chimice”, cu un salariu de până la 455.000 de dolari, aproape dublu faţă de cel oferit de Anthropic.

Însă unii experţi sunt îngrijoraţi de riscurile acestei abordări, avertizând că aceasta oferă instrumentelor de IA informaţii despre arme, chiar dacă li s-a cerut să nu le folosească.

Industria IA a avertizat în mod continuu cu privire la potenţialele pe care le prezintă tehnologia sa, dar nu s-a făcut nicio încercare de a încetini progresul acesteia.

Problema a căpătat un caracter urgent, întrucât guvernul SUA apelează la firmele de IA în timp ce declanşează războiul în Iran şi operaţiuni militare în Venezuela.

Anthropic a iniţiat o acţiune în justiţie împotriva Departamentului Apărării al SUA, pe care a desemnat-o drept un risc pentru lanţul de aprovizionare atunci când firma a insistat că sistemele sale nu trebuie utilizate nici în arme complet autonome, nici în supravegherea în masă a americanilor.

Co-fondatorul Anthropic, Dario Amodei, a scris în februarie că nu crede că tehnologia este încă suficient de bună şi că nu ar trebui utilizată în aceste scopuri.

Casa Albă a transmis că armata SUA nu va fi condusă de companii de tehnologie.

Eticheta de risc plasează compania americană în aceeaşi situaţie cu firma chineză de telecomunicaţii Huawei, care a fost, de asemenea, inclusă pe lista neagră din cauza unor preocupări diferite legate de securitatea naţională.

OpenAI a declarat că este de acord cu poziţia Anthropic, dar a negociat apoi propriul contract cu guvernul SUA, care, potrivit companiei, nu a intrat încă în vigoare.

Asistentul AI al Anthropic, numit Claude, nu a fost încă eliminat treptat şi este în prezent încă integrat în sistemele furnizate de Palantir şi utilizat de SUA în războiul dintre SUA, Israel şi Iran.

Urmărește Business Magazin

Am mai scris despre:
anthropic,
arme,
GALA Women in Power 2026
COVER STORY. „Românii sunt la fel de buni ca orice specialişti din lume, cu condiţia să muncim serios şi să abordăm lucrurile corect, profesionist”

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.bmag.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi in această pagină.