Prodaju li tehnološke AI kompanije "dušu" američkim obavještajnim službama?
Tehnološke tvrtke poput Anthropica, Microsofta, Mete i Googlea intenzivno se natječu za unosne ugovore s američkim sigurnosnim agencijama na tržištu vrijednom stotine milijardi dolara, iako su se prije ne tako dugo vremena klele u izbjegavanje AI modela za vojne i špijunske aktivnosti

Anthropicova objava modela "Claude Gov" prošlog četvrtka predstavlja najnoviji korak u sve jačoj konkurenciji tehnoloških tvrtki za unosne ugovore s američkim sigurnosnim i obavještajnim agencijama. Ova specijalizirana verzija umjetne inteligencije namijenjena je isključivo službama nacionalne sigurnosti i označava promjenu politike tvrtke koja je ranije ograničavala korištenje svojih modela za vojne svrhe.
Modeli Claude Gov razlikuju se od običnih verzija jer mogu obrađivati tajne dokumente i "manje odbijaju" zahtjeve koji uključuju povjerljive informacije. Anthropic navodi da su modeli prilagođeni za analizu obavještajnih i obrambenih dokumenata te imaju poboljšanu stručnost u jezicima važnima za nacionalnu sigurnost.
Microsoft drži prednost kroz partnerstvo s OpenAI-jem
Microsoft već ima čvrst položaj na ovom tržištu kroz svoj savez s OpenAI-jem. U siječnju 2025. tvrtka je dobila odobrenje za korištenje modela GPT-4o u Azure Government Top Secret oblaku, što omogućuje agencijama rad s najosjetljivijim podacima. Ovaj izolirani sustav radi bez pristupa internetu i dostupan je oko 10.000 osoba u obavještajnoj zajednici.
Microsoft je 2024. pokrenuo izoliranu verziju modela GPT-4 za američku obavještajnu zajednicu nakon 18 mjeseci razvoja. Sustav je dizajniran za rad u potpuno sigurnom okruženju, odvojenom od javnih mreža. William Chappell, Microsoftov tehnološki direktor za strateške misije, objašnjava da ovaj pristup omogućuje agencijama prilagodbu modela njihovim specifičnim potrebama bez izlaganja povjerljivih informacija.
Usluga Azure OpenAI Service dobila je certifikat FedRAMP High u kolovozu 2024., što omogućuje vladinim agencijama pristup naprednim AI mogućnostima unutar njihovih sustava Azure Government. Ova autorizacija pokriva i najnoviji model GPT-4o.
Meta mijenja pravila za modele Llama
Meta je u studenome 2024. promijenila svoju politiku i počela nuditi modele Llama američkim vladinim agencijama i obrambenim ugovarateljima. Tvrtka je napravila iznimku za američki državni sektor, iako njezina politika inače zabranjuje korištenje modela za vojne i špijunske aktivnosti.
Nick Clegg, Metin predsjednik za globalne poslove, objasnio je da modeli Llama sada rade kroz 12 američkih agencija i vladinih ugovaratelja, uključujući Lockheed Martin, Booz Allen Hamilton i Palantir Technologies. Tvrtka također proširuje dostupnost na saveznike poput Ujedinjenog Kraljevstva, Kanade, Australije i Novog Zelanda.
Oracle koristi Llama za obradu dokumenata o održavanju zrakoplova, dok Scale AI prilagođava modele za specifične misije nacionalne sigurnosti. Lockheed Martin integrirao je Llama u svoju tvornicu umjetne inteligencije za poboljšanje generiranja koda i analize podataka. IBM kroz svoju platformu Watsonx donosi Llama izravno u upravljane podatkovne centre sigurnosnih agencija.
Google razvija Gemini za sigurne vladine sustave
Google također sudjeluje u ovoj konkurenciji. Tvrtka razvija verziju svojeg AI modela Gemini prilagođenu radu u sigurnim vladinim sustavima. U travnju 2024. dobili su dozvolu za rad s najosjetljivijim državnim podacima kroz svoju platformu Google Distributed Cloud.
Google upravo radi na pokretanju sustava Gemini za rad s tajnim podacima. Ova izolirana platforma omogućit će agencijama stvaranje AI alata za poboljšanje rada različitih odjela, uz maksimalnu sigurnost podataka.
Tvrtka je također dobila potrebne autorizacije za rad sa Zračnim snagama kroz ugovor Air Force Cloud One. Googleova prednost leži u sigurnosnoj arhitekturi Zero Trust koja pretpostavlja da nijedan dio mreže nije inherentno siguran te zahtijeva stalnu provjeru pristupa.
I drugi se natječu za vladine ugovore
Cohere, tvrtka usredotočena na poslovne AI aplikacije, surađuje s Palantirom na implementaciji svojih modela za vladinu upotrebu. Ova partnerstva omogućuju agencijama pristup specijaliziranim AI alatima za analizu podataka i donošenje odluka.
Palantir se pozicionira kao ključni partner za implementaciju AI rješenja u obavještajnim agencijama. Tvrtka, poznata po svojem radu s ICE-om i drugim sigurnosnim agencijama, sada služi kao most između AI tvrtki i vladinih kupaca. Deloitte, Accenture Federal Services i druge konzultantske tvrtke također ulaze u ovaj prostor, nudeći implementacijske usluge za vladine AI projekte.
Zabrinutost: hoće li izmišljati i generirati netočne informacije
Korištenje AI modela za obavještajnu analizu postavlja važna pitanja o konfabulaciji, tendenciji modela da generiraju uvjerljivo zvučne ali netočne informacije. Konfabulacija je psihološki/medicinski termin kad se nenamjerno izmišlja ili iskrivljuje sjećanje - kad se "pune praznine" u pamćenju izmišljenim detaljima, a pri tome se iskreno vjeruje da su ti detalji istiniti. Budući da neuronske mreže rade na statističkim vjerojatnostima, mogu potencijalno dezinformirati agencije ako se ne koriste pravilno.
Tržište s velikim potencijalom
Trumpova administracija donijela je nove smjernice za korištenje i nabavu AI tehnologija u vladinim agencijama. Nove direktive zagovaraju aktivniji pristup razvoju umjetne inteligencije i zamjenjuju Bidenove propise, postavljajući temelje za veću upotrebu AI-ja u državnom sektoru. Tržište vladinih AI ugovora vrijedi stotine milijardi dolara i očekuje se rast na preko 800 milijardi dolara do 2030. godine.