Appleo testirao vlastiti AI i dobio zadovoljavajuće rezultate

Apple je objavio seriju vlastitih testova nad vlastitim AI modelima predstavljenima na WWDC-u po kojima ispada da su usporedivi s drugim dostupnim modelima slične veličine, a prednost Applea je da se svi izvode lokalno na korisničkom računalu

Drago Galić petak, 13. lipnja 2025. u 08:28

Apple je na ovogodišnjem WWDC-u predstavio Foundation Models koji po prvi put omogućuje vanjskim programerima izravan pristup Appleovoj umjetnoj inteligenciji na uređaju. To znači da će sada moći integrirati mogućnosti umjetne inteligencije poput sažimanja dokumenata, izvlačenja ključnih informacija iz korisničkog teksta ili generiranja strukturiranog sadržaja izvan mreže i bez troškova API-ja. 

Appleovi modeli s otprilike 3 milijarde parametara prema Appleovim vlastitim evaluacijama su blago nadmašili slične lagane vizualno-jezične modele poput InternVL-2.5 i Qwen-2.5-VL-3B u zadacima obrade slika.

U obradi teksta, Appleovi modeli su se usporedivi s većim modelima poput Gemma-3-4B.  Appleov poslužiteljski model, koji neće biti dostupan vanjskim programerima pokazao je usporedive performanse s LLaMA-4-Scoutom i navodno je nadmašio Qwen-2.5-VL-32B u razumijevanju slika.

Ipak, GPT-4o i dalje uvjerljivo predvodi u ukupnim performansama.  Ključna prednost Appleovih novih modela leži u lokalnom izvršavanju.

S okvirom Foundation Models programeri više ne moraju uključivati velike jezične modele u svoje aplikacije za izvanmrežnu obradu

Apple navodi da su modeli optimizirani za strukturirane izlaze pomoću Swifta koji omogućuje razvojnim programerima da ograniče odgovore modela izravno u logiku aplikacije.