Функције губитака за класификацију

From Wikipedia, the free encyclopedia

Функције губитака за класификацију
Remove ads

У машинском учењу и математичкој оптимизацији, функције губитка за класификацију су рачунски изводљиве функције губитка које представљају цену плаћену за нетачност предвиђања у проблемима класификације (проблеми идентификације којој категорији припада одређено запажање). Дато као простор свих могућих улаза (обично ), и као скуп ознака (могућих излаза), типичан циљ класификационих алгоритама је проналажење функције који најбоље предвиђа ознаку за дати улаз . Међутим, због непотпуних информација, шума у мерењу или вероватноћа компоненти у основном процесу, могуће је да исти генерише различите . Као резултат, циљ проблема учења је да се минимизира очекивани губитак (такође познат као ризик), дефинисан као

Thumb
Бајесове конзистентне функције губитка: губитак нула-један (сива), губитак дивљака (зелена), логистички губитак (наранџаста), експоненцијални губитак (љубичаста), губитак тангента (браон), губитак квадрата (плава)

где је дата функција губитка, и је функција густине вероватноће процеса који је генерисао податке, што је еквивалентно:

У оквиру класификације, неколико често коришћених функција губитка је написано искључиво у смислу производа праве лабеле и предвиђене лабеле . Стога се могу дефинисати као функције само једне променљиве , тако да са прикладно одабраном функцијом . Оне се називају функције губитка засноване на маржи . Одабир функције губитка засноване на маржи представља избор . Избор функције губитка унутар овог оквира утиче на оптималну што минимизира очекивани ризик.

У случају бинарне класификације, могуће је поједноставити израчунавање очекиваног ризика из горе наведеног интеграла. Односно:

Друга једнакост произилази из горе описаних својстава. Трећа једнакост произилази из чињенице да су 1 и −1 једине могуће вредности за , а четврта јер је . Термин у заградама је познат као условни ризик.

Може се решити за минимизатор од узимањем функционалног извода последње једнакости у односу на и изједначавањем извода са 0. Ово ће резултирати следећом једначином:

што је еквивалентно постављању извода условног ризика једнаком нули.

С обзиром на бинарну природу класификације, природна селекција за функцију губитка (под претпоставком да је једнака цена за лажне позитивне и лажно негативне ) била би функција губитка 0-1 ( функција индикатора 0–1), која узима вредност 0 ако је предвиђено класификација једнака оној праве класе или 1 ако се предвиђена класификација не поклапа са правом класом. Овај избор је моделован по следећој једнокости:

где означава функцију Хевисајдовог корака. Међутим, ова функција губитка није конвексна и није глатка, а решавање оптималног решења је НП-тежак комбинаторни оптимизациони проблем. Као резултат тога, боље је заменити сурогате функције губитка који су погодни за уобичајено коришћене код алгоритама учења, јер имају погодна својства као што је конвексност и глаткос. Поред њихове рачунске поправљивости, може се показати да решења проблема учења помоћу ових сурогата губитака омогућавају опоравак стварног решења оригиналног проблема класификације. Неки од ових сурогата су описани у наставку.

У пракси, расподела вероватноће је непозната. Сходно томе, користити тренинг сет за обуку независно и идентично распоређених тачки узорка

извучен из простора елемантарних узорака података, настоји се минимизирати емпиријски ризик

као замена за очекивани ризик.

Remove ads

Бајесова конзистенција

Користећи Бајесову теорему, може се показати да је оптимална , тј. она који минимизује очекивани ризик повезан са губитком нула-један, имплементира Бајесово правило оптималне одлуке за проблем бинарне класификације и у облику је:

.

За функцију губитка се каже да је калибрисана класификацијом или Бајесова конзистентна ако је оптимална је такава да и стога је оптималана према Бајесовом правилу одлучивања. Бајесова конзистентна функција губитка омогућава нам да пронађемо Бајесову оптималну функцију одлучивања директним минимизовањем очекиваног ризика и без потребе за експлицитним моделирањем функција густине вероватноће.

За губитак конвексне маргине , може се показати да је Бајес конзистентан ако и само ако је диференцибилан на 0 и . Ипак, овај резултат не искључује постојање неконвексних Бајесових конзистентних функција губитка. Општији резултат каже да се Бајесове конзистентне функције губитка могу генерисати коришћењем следеће формулације:

,

где је било која инверзибилна функција таква да је и било која диференцибилна стриктно конкавна функција таква да је . Табела-И приказује генерисане Бајесове конзистентне функције губитка за неке примере избора и . Имајте на уму да нису сви губитци конвексни. Показало се да су такве неконвексне функције губитка корисне у раду са одступницима у класификацији. За све функције губитка генерисане из (2), постериорна вероватноћа може се наћи помоћу функције инверзне везе као . Такве функције губитка где се задња вероватноћа може повратити коришћењем инверзибилне везе називају се функције правилног губитка .

Више информација , ...


Једини минимизатор очекиваног ризика, , повезан са горе генерисаним функцијама губитака може се директно наћи из једначине (1) и показати да је једнака одговарајућој . Ово важи чак и за неконвексне функције губитка, што значи да се алгоритми засновани на градијенту спуштања, као што је повећање градијента, који се може користити за конструисање минимизатора.

Remove ads

Исправне функције губитка, маргина губитка и регуларизација

Thumb
(Црвени) стандардни логистички губитак ( ) и (Плава) повећана маржа Логистички губитак ( ).

За валидне функције губитка, маргина губитка се може дефинисати као {\displaystyle |yf({\vec {x}})|\geq 1} . Поред тога, емпиријска минимизација ризика од овог губитка је еквивалентна класичној формулацији за машине подржане векторима (SVMs). Тачно класификоване тачке које леже изван маргиналних граница вектора подршке се не кажњавају, док се тачке унутар граница маргине или на погрешној страни хиперравне кажњавају на линеарни начин у поређењу са њиховом удаљености од исправне границе.

Док је функција губитка зглоба и конвексна и континуирана, није глатка (не може се разликовати) на . Сходно томе, функција губитка зглоба се не може користити са методама градијентног спуста или методама стохастичког градијента које се ослањају на диференцијабилност у целом домену. Међутим, губитак зглоба има субградијент на , што омогућава коришћење субградијентних метода спуштања . SVM-ови који користе функцију губитка зглоба такође се могу решити коришћењем квадратног програмирања .

Минимизатор од за функцију губитка зглоба је

када , што одговара функцији индикатора 0–1. Овај закључак чини губитак зглоба прилично атрактивним, јер се могу поставити границе између очекиваног ризика и знака функције губитка зглоба. Губитак зглоба се не може извести из (2) јер није инверзибилан.

Remove ads

Генерализовани глатки губитак зглоба

Генерализована глатка функција губитка зглоба са параметром се дефинише као:

где је

Она се монотоно повећава и достиже 0 када .

Remove ads
Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads