Trump rupe relaţiile federale cu Anthropic după conflictul privind AI militar
Un conflict între Pentagon şi compania americană de inteligenţă artificială Anthropic scoate la iveală o întrebare care părea desprinsă din filme, până de curând: poate inteligenţa artificială să fie folosită pentru a lua decizii care înseamnă viaţă şi moarte?
Disputa a izbucnit în urma unei întâlniri care a avut loc între oficiali de rang înalt din Pentagon şi directorul general al Anthropic, Dario Amodei. The Washington Post a relatat vineri că şeful tehnologiei din cadrul Departamentului Apărării ar fi pus pe masă un scenariu extrem: ce s-ar întâmpla dacă o rachetă balistică intercontinentală ar fi lansată asupra Statelor Unite?
Într-o astfel de situaţie, fiecare secundă contează. Oficialii americani ar fi întrebat dacă sistemul AI al companiei, numit Claude, ar putea ajuta armata să detecteze şi să intercepteze rapid o astfel de ameninţare. Potrivit sursei citate, răspunsul directorului general al Anthropic i-ar fi iritat pe oficialii Pentagonului. Acesta ar fi răspuns evaziv, spunând: „ne-aţi putea suna şi am rezolva situaţia”.
Compania neagă însă categoric această versiune şi spune că este „complet falsă”, subliniind că a fost de acord ca tehnologia sa să fie utilizată pentru apărarea antirachetă.
Disputa nu s-a limitat însă la interceptarea rachetelor. Pentagonul a cerut ca sistemul Claude să poată fi folosit pentru „toate scopurile legale”, formulare care ar putea include şi arme autonome sau programe extinse de supraveghere.
Oficialii americani au transmis că nu intenţionează să desfăşoare supraveghere internă în masă şi nici să lase AI-ul să decidă singur lansarea armelor nucleare. „Este o solicitare simplă, de bun-simţ”, a declarat purtătorul de cuvânt al Pentagonului, Sean Parnell, argumentând că refuzul companiei ar putea „pune în pericol operaţiuni militare critice”.
De cealaltă parte, Amodei a susţinut că tehnologia actuală nu este suficient de sigură pentru a fi folosită în sisteme de armament autonom. „Într-un set restrâns de cazuri, credem că AI poate submina, nu apăra, valorile democratice”, a declarat el, precizând că utilizările legate de arme autonome şi supraveghere extinsă „nu au fost niciodată incluse în contractele noastre cu Departamentul Apărării şi credem că nici acum nu ar trebui incluse”.
După săptămâni de tensiuni şi un ultimatum transmis companiei, conflictul a escaladat decisiv. Potrivit Reuters, Donald Trump a anunţat vineri seara că le cere tuturor agenţiilor federale să înceteze utilizarea tehnologiei Anthropic, iar Pentagonul a clasificat compania drept „risc pentru lanţul de aprovizionare” - o etichetă gravă în zona securităţii naţionale.
Trump a transmis că agenţiile federale vor avea o perioadă de tranziţie de şase luni pentru a renunţa la produsele companiei şi a avertizat că, în caz de neconformare, pot urma consecinţe serioase. Decizia reprezintă o lovitură majoră pentru start-up-ul care, până recent, avea contracte importante cu Departamentul Apărării şi alte instituţii federale.
Oficialii americani spun că va exista mereu „un om în buclă” atunci când vine vorba de arme nucleare, adică decizia umană va fi finală. Însă chiar şi atunci, dacă un sistem AI recomandă un anumit răspuns sau identifică o ţintă, influenţa sa asupra deciziei poate fi majoră.
Miza acestei confruntări poate părea îndepărtată pentru orice alt continent, dar implicaţiile ei sunt profunde. Statele Unite investesc masiv în integrarea inteligenţei artificiale în armată. AI-ul este deja folosit pentru analiză de informaţii, planificare operaţională şi securitate cibernetică. Întrebarea dezvoltatorilor de la Anthropic este cât de departe ar trebui să meargă utilizarea tehnologiei pe care au creat-o în scopuri militare.
Iar conflictul dintre Pentagon şi Anthropic nu mai este doar unul tehnic sau contractual. A devenit o confruntare politică deschisă despre cine controlează viitorul tehnologiei militare: statul, care invocă securitatea naţională, sau companiile private, care se tem că produsele lor ar putea fi folosite într-un mod pe care îl consideră periculos sau nedemocratic.
În spatele termenilor tehnici şi al deciziilor executive stă o dilemă fundamentală: dacă inteligenţa artificială devine suficient de puternică pentru a influenţa decizii de război, cine stabileşte limitele? Guvernul, în numele securităţii, sau dezvoltatorii, în numele responsabilităţii?
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe alephnews.ro
Citeşte pe fanatik.ro
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro













