Msty 1.7,1 - Svestran i moćan

Msty je zamišljen kao offline-first platforma, koja podržava lokalne modele kao što su Metina Llama, DeepSeek-R1 ili Microsoftov Phi (zapravo sve one modele koje podržava Ollama, s obzirom na to da je Msty zapravo sučelje koje se izravno oslanja na to rješenje), ali tu je i podrška za online rješenja koja će se koristiti preko njihova API-ja, što znači da se mogu koristiti OpenAI, Claude, DeepSeek, Mistral, Groq i brojni drugi u punom opsegu (potrebno je samo na raspolaganju imati odgovarajući API ključ). Doduše, na umu valja imati to da je Msty besplatan isključivo za kućnu i nekomercijalnu uporabu. Kao i druga rješenja tog tipa, prilično ga je jednostavno koristiti, a nakon sasvim uobičajene instalacije (samo valja sa službene stranice preuzeti odgovarajuću inačicu, ovisno o tome može li se koristiti GPU ili samo CPU), na izbor će biti ponuđeno preuzimanje nekog od dostupnih modela (među njima je i destilirana inačica modela DeepSeek-R1) ili konfiguracija korištenja modela preko online API-ja (kasnije je u postavkama lako moguće promijeniti modalitet rada iz lokalnog u online, i obratno). Dakako, za lokalno korištenje najbolje je odmah preuzeti neki od ponuđenih modela (u našem slučaju to je DeepSeek-R1), pričekati da se model preuzme, i jednostavno započeti dijalog. Jedan od njih je Split Chats, koji omogućuje paralelno testiranje odgovora više modela u stvarnom vremenu (kako lokalnih, tako i onih online), a tu je i vrlo zanimljiva značajka Knowledge Stack.