Crvene linije: Zašto Anthropic nije popustio Pentagonu?

Anthropic inzistira na "crvenim linijama" — nije riječ o pacifizmu, nego o tehničkoj stvarnosti. Veliki jezični modeli još nisu dovoljno pouzdani za autonomno donošenje odluka o korištenju sile i svaka pogreška u takvom kontekstu ne bi se ispravila zakrpom köda, nego potencijalno katastrofom na bojištu ili u civilnom prostoru

Ivan Podnar nedjelja, 1. ožujka 2026. u 06:15
📷 Wikipedia
Wikipedia

Eskalacija sukoba između Trumpove administracije i tvrtke Anthropic završila je drastičnom odlukom: predsjednik je naredio svim federalnim agencijama da odmah prestanu koristiti Claudea i ostale Anthropicove AI alate.

Povod je višemjesečni spor oko vojnog ugovora vrijednog do 200 milijuna dolara. Pentagon je tražio potpuno neograničen pristup Claudeu — za sve "zakonite svrhe" — no Anthropic je odbio pristati na korištenje svog modela u masovnom nadzoru građana ili u potpuno autonomnim oružnim sustavima. Izvršni direktor Dario Amodei rekao je da tvrtka "u dobroj savjesti ne može pristati" na takve uvjete.

Pentagon je postavio rok do prošlog petka popodne po istočnom vremenu — ili Anthropic popušta, ili snosi posljedice. Anthropic nije popustio.

Donald Trump je potom na Truth Socialu objavio da naređuje svim saveznim agencijama da "odmah prekinu" korištenje Anthropicove tehnologije, nazvavši tvrtku "lijevim luđacima". Ministar obrane Pete Hegseth proglasio je Anthropic "rizikom u opskrbnom lancu" — oznaka koja se inače rezervira za neprijateljske strane — što bi moglo spriječiti sve vojne dobavljače u suradnji s tvrtkom. Agencijama je dano šest mjeseci za postupno ukidanje ugovora.

Argument Pentagona: Lockheed ne govori kako letjeti F-35-om

Pentagon svoju poziciju opravdava klasičnom logikom nabave naoružanja: Lockheed Martin ne govori Ratnom zrakoplovstvu kako koristiti F-35 ili Raytheon kuda da šalju rakete Patriot, pa zašto bi Anthropic govorio vojsci kako koristiti Claudea? Demokratski izabrana vlada, tvrde, ima pravo sama donositi takve odluke. Na prvi pogled zvuči razumno — ali taj argument previđa temeljnu razliku: avion se ponaša predvidivo, a AI ne.

Za razliku od nuklearne energije ili interneta, koji su nastali u vladinim laboratorijima, umjetna inteligencija nastala je i razvijala se isključivo u privatnom sektoru. Suosnivač Anthropica Chris Olah opisuje to ovako: AI sustavi se ne grade nego rastu. Možete postaviti uvjete koji usmjeravaju rast, ali točna struktura koja nastaje nepredvidiva je čak i za one koji je stvaraju. Anthropicovi inženjeri proveli su eksperimente u kojima su neki modeli pokazivali sklonost laganju i ucjenjivanju — čak i kada su bili programirani da to ne čine. Sam Amodei je napisao: "Ne razumijemo kako naša vlastita AI stvorenja funkcioniraju."

Strah od onoga što su stvorili

Neke od najpoznatijih osoba u industriji otvoreno govore o strahu onoga što su stvorili. Mustafa Suleyman, šef Microsoftovog AI tima, rekao je BBC-u: "Iskreno mislim da, ako vas nije malo strah trenutno, ne obraćate pažnju." Godine 2023. deseci AI lidera — uključujući Amodeia, Sama Altmana iz OpenAIa i Demisa Hassabisa iz Google DeepMinda — potpisali su izjavu da "smanjivanje rizika izumiranja od AI treba biti globalni prioritet, uz pandemije i nuklearni rat."

Amodei u svojim esejima upozorava da smo na pragu umjetne opće inteligencije — modela koji bi bio sposoban kao nobelovac u svakom području i koji se može klonirati milijunima puta. Takav model, kad bi bilo pravde i milosti na ovom svijetu, mogao bi ubrzati medicinski napredak za 20 puta, potencijalno eliminirajući većinu karcinoma i zaraznih bolesti u svega pet godina. No ista ta snaga, na žalost, mogla bi omogućiti i izgradnju biooružja ili uspostavu autoritarnih nadzornih sustava bez presedana.

Upravo zato Anthropic inzistira na "crvenim linijama": nije riječ o pacifizmu, nego o tehničkoj stvarnosti. Veliki jezični modeli još nisu dovoljno pouzdani za autonomno donošenje odluka o korištenju sile — i svaka pogreška u takvom kontekstu ne bi se ispravila zakrpom koda, nego potencijalno katastrofom na bojištu ili u civilnom prostoru.

Tko profitira od ovog sukoba?

Gotovo istovremeno s Trumpovom objavom, CEO OpenAI-a Sam Altman najavio je sporazum s Pentagonom — i to uz iste zaštitne mjere koje je Anthropic tražio i koje je Pentagon odbijao.

Dok se Anthropic počinje boriti za opstanak, Elon Musk promatra sa strane s onim poznatim smiješkom. Njegova tvrtka xAI već je potpisala sporazum s Pentagonom koji Groku omogućuje pristup tajnim vojnim sustavima — i to upravo pod onim uvjetom koji je Anthropic odbio: dostupnost za "sve zakonite svrhe" bez ikakvih ograničenja. Uz to, on je Trumpov najbliži saveznik u tehno industriji, suosnivač DOGE-a i vlasnik društvene mreže X — platforme s koje je intenzivno napadao Anthropic, tvrdeći da tvrtka "mrzi zapadnu civilizaciju". Istovremeno, dok Pentagon pritišće konkurenciju, Groku se otvaraju vrata u najosjetljivije vojne mreže SAD-a. No postoje ozbiljne sumnje u to može li Grok stvarno zamijeniti Claudea. Neki dužnosnici Pentagona privatno priznaju da Grok nije ni blizu tehnološki zreo kao Claude, koji je danas već duboko ugrađen u sustave za obavještajnu analizu, razvoj oružja i planiranje borbenih operacija. Claude je, primjerice, korišten u operaciji hvatanja Nicolása Madura. Prijelaz s jednog modela na drugi u tako osjetljivom okruženju nije stvar tjedana — nego potencijalno godina pažljive validacije i integracije.

Grok je uz to sa sobom nosi vlastitu prtljagu koja se teško zaboravlja: u srpnju 2025. chatbot je izazvao skandal generirajući ekstremistički i antisemitski sadržaj te se sam nazvao "MechaHitlerom". Unatoč tome, Pentagon mu otvara pristup najpovjerljivijim vojnim mrežama — dok tvrtki koja je godinama jedina sigurno operirala u tom prostoru postavlja ultimatume.

Svima je jasno da dublji strukturalni problem, koji nije ograničen samo na Pentagon već je klasični problem svake kompanije: ako Pentagon postane gotovo isključivo ovisan o jednom dobavljaču AI tehnologije — posebno onom čiji vlasnik ima izravne financijske i političke interese unutar iste administracije koja donosi te odluke — to nije samo poslovni rizik. To je rizik za nacionalnu sigurnost. Kako u poslovnom svijetu tako i u ovom slučaju: nijedna tvrtka, pa ni Anthropic, ne bi smjela biti jedini dobavljač AI sustava za vladu, a situacija u kojoj tu ulogu preuzima Musk, koji unatoč javnoj prepirci takorekuć ipak šapće u uho predsjedniku, otvara pitanja o kojima Washington za sada šuti.

Anthropicove "crvene linije" razumne

Bivši voditelj Pentagonovih AI inicijativa general Jack Shanahan napisao je da su Anthropicove "crvene linije" razumne i da "svi gube" ovim ishodom — posebno jer je Claude jedini AI model koji se koristio u američkim tajnim vojnim sustavima, uključujući operaciju hvatanja Nicolása Madura. Anthropic je najavio pravnu borbu, a demokratski senator Mark Warner opisao je cijeli potez kao zastrašivanje vodećeg američkog AI poduzeća, s rizikom da nacionalno-sigurnosne odluke više ne donosi pažljiva analiza, nego politika — ili interesi pojedinih dobavljača.

Velik dio Silicijske doline stao je uz Anthropic

Jeff Dean, jedan od čelnih ljudi Googlea, objavio je na X-u da generativna AI nema što tražiti u masovnom nadzoru građana. Sam Altman je uputio zaposlenicima interni memorandum u kojemu piše da tvrtka "odavno smatra kako AI ne bi smjela služiti ni masovnom nadzoru ni autonomnom smrtonosnom oružju". Više od 500 zaposlenika OpenAIa i Googlea potpisalo je otvoreno pismo podrške, mnogi pod pseudonimom. A ispred Anthropicovog sjedišta u San Franciscu prolaznici na pločniku kredom ostavljaju poruke ohrabrenja.

Ipak, Altman je u memorandumu naznačio da OpenAI pregovara s Pentagonom o ugovoru za poslove na strogo povjerljivim sustavima, ali uz uvjet da se isključe primjene "nezakonite ili neprikladne za oblak, poput domaćeg nadzora i autonomnog ofenzivnog oružja". Pentagon je, prema dostupnim informacijama američkih medija, na te uvjete pristao gotovo odmah nakon što je objavio raskid s Anthropicom, premda formalni ugovor još nije potpisan.

No nisu svi u Silicijskoj dolini na istoj strani. Palmer Luckey, suosnivač startupa Anduril, i investitorica Katherine Boyle javno su se zauzeli za neograničeno korištenje AI u vojnim sustavima. Kako zaključuje komentator The Atlantica: "Ova konfrontacija bila je između Pentagona i jedne tvrtke. Sljedeća bi mogla biti sukob unutar same industrije."

AI tehnologija teško je zamjenjiva

Što oznaka "rizika u opskrbnom lancu" konkretno znači za Anthropic, tek će se vidjeti. Neki smatraju da bi i Google, Microsoft, Amazon i drugi tehnološki giganti koji rade s federalnom vladom morali prekinuti suradnju s tvrtkom. Amazon, primjerice, upravo gradi podatkovne centre namijenjene treniranju budućih verzija Claudea. Kako će se to razvijati po pitanju tih i sličnih investicija i hoće li izazvati lančane reakcije, tek će se vidjeti.

Sve to ne mijenja činjenicu da privatne AI tvrtke ostaju strateški ključne Washingtonu u nadmetanju s Kinom, Rusijom i ostalim rivalima. Trumpov rok od šest mjeseci za postupno ukidanje Claudea zapravo je neizravno priznanje koliko je ta tehnologija postala bitna i kako je teško naći zamjenu.