Claude prekida „uznemirujuće“ razgovore
Anthropic je najavio da njegovi chatboti Claude Opus 4 i 4.1 sada imaju mogućnost samovoljnog prekidanja uznemirujućih razgovora
Prema pisanju Engadgeta, najnovija funkcija Anthropica za dva njegova Claude AI modela mogla bi biti početak kraja za zajednicu „AI jailbreakinga“. Tvrtka je u objavi na svojoj web stranici objavila da Claude Opus 4 i 4.1 modeli sada imaju mogućnost završetka razgovora s korisnicima. Prema Anthropicu, ova funkcija će se koristiti samo u "rijetkim, ekstremnim slučajevima trajno štetnih ili uvredljivih korisničkih interakcija."
Za pojašnjenje, Anthropic je rekao da bi ta dva Claude modela mogla izaći iz štetnih razgovora, poput "zahtjeva korisnika za seksualni sadržaj koji uključuje maloljetnike i pokušaja dobivanja informacija koje bi omogućile nasilje velikih razmjera ili terorističke akte." S Claude Opus 4 i 4.1, ovi modeli će završiti razgovor "kao posljednje sredstvo kada više pokušaja preusmjeravanja ne uspije i kada se nada za produktivnu interakciju iscrpi". Međutim, Anthropic tvrdi da većina korisnika neće doživjeti da Claude prekine razgovor, čak i kada razgovaraju o vrlo kontroverznim temama, jer će se ova funkcija zadržati za "ekstremne granične slučajeve."
U scenarijima gdje Claude završi razgovor, korisnici više ne mogu poslati nove poruke u tom razgovoru, ali mogu odmah pokrenuti novi. Anthropic je dodao da ako se razgovor završi, to neće utjecati na druge razgovore i korisnici mogu čak vratiti i urediti ili ponoviti prethodne poruke kako bi usmjerili prema drugačijem razgovornom smjeru.
Anthropic još uvijek eksperimentira s ovom funkcijom i potiče svoje korisnike da daju povratne informacije kada naiđu na takav scenarij.