S praktičnega stališča L1 nagiba k krčenju koeficientov na nič, medtem ko L2 nagiba k enakomernemu krčenju koeficientov. L1 je zato uporaben za izbiro značilnosti, saj lahko izpustimo vse spremenljivke, povezane s koeficienti, ki gredo na nič. L2 je po drugi strani uporaben, če imate kolinearne/soodvisne funkcije.
Kaj je uporaba regularizacije Kaj sta L1 in L2 regularizacija?
L1 regularizacija daje izhod v binarnih uteži od 0 do 1 za značilnosti modela in je sprejeta za zmanjševanje števila funkcij v velikem dimenzionalnem nizu podatkov. L2 regularizacija razprši izraze napak v vseh uteži, kar vodi do natančnejših končnih modelov po meri.
Kakšne so razlike med L1 in L2 regularizacijo?
Glavna intuitivna razlika med regularizacijo L1 in L2 je v tem, da L1 regularizacija poskuša oceniti mediano podatkov, medtem ko regularizacija L2 poskuša oceniti povprečje podatkov, da se izogne prekomernemu prilagajanju. … Ta vrednost bo matematično tudi mediana porazdelitve podatkov.
Kaj je L1 in L2 regularizacija pri globokem učenju?
L2 regularizacija je znana tudi kot upad teže, saj uteži upadajo proti nič (vendar ne ravno nič). V L1 imamo: Pri tem kaznovamo absolutno vrednost uteži. Za razliko od L2 se lahko uteži zmanjšajo na nič. Zato je zelo uporaben, ko poskušamo stisnitinaš model.
Kako delujeta L1 in L2 regularizacija?
Regresijski model, ki uporablja tehniko regularizacije L1, se imenuje Lasso regresija, model, ki uporablja L2, pa se imenuje regresija grebena. Ključna razlika med tema dvema je kazen. Regresija grebena doda "kvadrat velikosti" koeficienta kot kazenski člen funkciji izgube.