Microsoft tvrdi: Copilot je samo za zabavu, ne vjerujte mu za važne savjete

U svojim uvjetima korištenja, Microsoft upozorava da je Copilot samo za zabavu i da se ne treba oslanjati na njegove savjete

Bug.hr ponedjeljak, 6. travnja 2026. u 19:48
📷 Foto: Unsplash
Foto: Unsplash

Skeptici umjetne inteligencije nisu jedini koji upozoravaju korisnike da ne vjeruju slijepo rezultatima koje AI modeli izbacuju - to rade i same tehnološke kompanije u svojim uvjetima korištenja. Najnoviji primjer je Microsoft, koji se našao na udaru kritika na društvenim mrežama zbog klauzule u uvjetima za svoj popularni alat Copilot.

Iako Microsoft trenutno agresivno prodaje Copilot poslovnim korisnicima kao alat za povećanje produktivnosti, u uvjetima korištenja, zadnje ažuriranim 24. listopada 2025. godine, stoji prilično iznenađujuće upozorenje.

"Copilot je namijenjen isključivo za zabavne svrhe. Može raditi pogreške i možda neće funkcionirati kako je predviđeno. Nemojte se oslanjati na Copilot za važne savjete. Koristite Copilot na vlastiti rizik", navodi se u dokumentu

Raskorak između marketinga i stvarnosti

Ova klauzula izazvala je značajnu pomutnju jer je u potpunoj suprotnosti s načinom na koji Microsoft promovira svoj AI alat - kao revolucionarnog digitalnog asistenta i "kopilota" za posao. Nakon što je priča postala viralna, oglasnogovornik Microsofta za PCMag izjavio je kako kompanija planira ažurirati ono što su opisali kao "zastarjeli jezik". Prema njegovim riječima, ta je formulacija ostala iz ranih dana, kada je Copilot bio samo dio Bing tražilice, te više ne odražava današnju namjenu proizvoda.

Međutim, analitičari ističu kako je ovakva vrsta pravnog odricanja od odgovornosti česta taktika. Stručnjaci to opisuju kao fenomen "dvije maske": jedna je marketinška, koja AI prikazuje kao pouzdanog suradnika, a druga je pravna, koja ga definira kao nepouzdan alat kako bi se kompanija zaštitila od tužbi u slučaju grešaka ili takozvanih "halucinacija".

Podaci s početka 2026. godine pokazuju da se takav pristup odražava i na povjerenje korisnika. Istraživanja pokazuju značajan pad u ocjeni točnosti Copilota, a čak 44,2 posto korisnika koji su odustali od alata kao glavni razlog navodi upravo "nepovjerenje u odgovore".

Microsoft nije jedina kompanija koja koristi ovakve ograde. OpenAI, tvorac ChatGPT-a, upozorava korisnike da se na odgovore ne oslanjaju kao na "jedini izvor istine", dok xAI za svoj Grok navodi da su rezultati "probabilistički" i da ne predstavljaju "istinu". Ipak, Microsoftova formulacija o "zabavnim svrhama" jedinstvena je u svojoj izravnosti.