Kategorična crossentropija je funkcija izgube, ki se uporablja pri večrazrednih klasifikacijskih nalogah. To so naloge, pri katerih primer lahko pripada samo eni izmed številnih možnih kategorij, model pa se mora odločiti, katero. Formalno je zasnovan za količinsko opredelitev razlike med dvema verjetnostnima porazdelitvama.
Zakaj uporabljati navzkrižno entropijo namesto MSE?
Najprej, navzkrižna entropija (ali mehka maksimalna izguba, vendar navzkrižna entropija deluje bolje) je boljši ukrep kot MSE za razvrstitev, ker je meja odločitve v nalogi razvrščanja velika(v primerjavi z regresijo). … Za težave z regresijo bi skoraj vedno uporabili MSE.
Kakšna je razlika med redko navzkrižno entropijo in kategorično navzkrižno entropijo?
Edina razlika med redko kategorično navzkrižno entropijo in kategorično navzkrižno entropijo je formata pravih oznak. Ko imamo težavo pri klasifikaciji z eno oznako, več razredov, se oznake medsebojno izključujejo za vsak podatek, kar pomeni, da lahko vsak vnos podatkov pripada samo enemu razredu.
Kako si razlagate kategorično izgubo navzkrižne entropije?
Navzkrižna entropija narašča, ko se predvidena verjetnost vzorca razlikuje od dejanske vrednosti. Zato napovedovanje verjetnosti 0,05, ko ima dejanska oznaka vrednost 1, poveča izgubo navzkrižne entropije. označuje predvideno verjetnost med 0 in 1 za ta vzorec.
Zakaj je navzkrižna entropija dobra?
Na splošno, kot lahko vidimo, je navzkrižna entropija preprosto način za merjenje verjetnosti modela. Navzkrižna entropija je uporabna, saj lahko opiše, kako verjeten je model in funkcijo napake vsake podatkovne točke. Lahko se uporablja tudi za opis predvidenega izida v primerjavi z resničnim izidom.