Očekivano, krenuo kontranapad - Google DeepMind osporio DeepSeekove tvrdnje o troškovima AI razvoja
Kineski startup DeepSeek tvrdi da je razvio konkurentni AI model za samo 5,6 milijuna dolara, što Google DeepMind i drugi stručnjaci osporavaju. Procjene stvarnih troškova premašuju milijardu dolara, uključujući infrastrukturu i razvoj

DeepSeek je privukao pozornost AI zajednice tvrdnjom da je razvio konkurentni AI model za samo 5,6 milijuna dolara, što je izrazito manje od uobičajenih troškova razvoja takvih sustava.
Sasvim očekivano, konkuretni nastoje osmisliti argumente s kojima bi dokazali kako nije sve tako kako se prikazuje, što bi onda i opravdalo njihove dosadašnja, a još više buduće, troškove.
Prvi se javio Google
Demis Hassabis, čelnik Google DeepMinda, na pariškom Summitu za umjetnu inteligenciju detaljno je osporio navode tvoraca DeepSeeka. Prema njegovim riječima, predstavljeni iznos ne uključuje ključne troškove poput plaća stručnjaka, troškova istraživanja i razvoja, te infrastrukture potrebne za treniranje modela. Hassabis procjenjuje da stvarni troškovi razvoja DeepSeek modela višestruko premašuju navedeni iznos, posebno uzimajući u obzir kompleksnost treniranja velikih jezičnih modela.
Također je naglasio kako DeepSeek nije predstavio nikakva tehnološka unapređenja koja bi opravdala tako dramatično smanjenje troškova.
DeepSeek: u iznos od 5,6 milijuna nije sve uključeno
Analitičar Dylan Patel procjenjuje da ukupni troškovi tvrtke vjerojatno premašuju milijardu dolara kada se uračunaju svi aspekti razvoja. Sam DeepSeek je kasnije pojasnio da iznos od 5,6 milijuna dolara predstavlja samo završnu fazu treniranja modela, bez uračunatih troškova ranijih eksperimenata, optimizacije arhitekture i potrebne računalne infrastrukture.
Korištenje rezultata drugih modela?
Dodatno, američke vlasti istražuju je li DeepSeek možda zaobišao izvozna ograničenja za napredne poluvodiče, nabavljajući Nvidijine čipove preko Singapura. OpenAI i Microsoft također istražuju mogućnost da je DeepSeek koristio "destilaciju", tehniku gdje se jedan AI model trenira koristeći rezultate drugog modela, što bi moglo objasniti niže troškove razvoja.