Алгоритам опадајућег градијента

From Wikipedia, the free encyclopedia

Алгоритам опадајућег градијента
Remove ads

Опадајући градијент је оптимизациони алгоритам првог реда. Алгоритам опадајућег градијента налази локани минимум функције тако што извршава више корака пропорционалних негативној вредности градијента одговарајуће функције. Уколико се алгоритам заснива на позитивним вредностима градијента онда се налази локални максимум и тај приступ се зове растући граднијент.[1][2]

Thumb
Илустрација опадујућег градијента
Remove ads

Опис алгоритма

Ако је функција дефинисана и диференцијабилна у околина тачке , онда опада брже у смеру од тачке ка негативном градијенту функције у тачки . Из тога следи:

за довољно мало па је .

Генерално, алгоритам почиње са случајно одабраном вредношћу из чега се добија низ елемената тако да важи:

па је онда

На основу свега тога, низ конвергира ка локалном минимуму. Приметимо да вредност корака може (a и не мора) да се мења у свакој итерацији. Са одређеним претпоставкама о функцији (на пример, је конвексно и градијент од је Липшиц непрекидна) и са добро одређеним вредностима за , конвергенција ка локалном минимуму може да буде гарантована. Када је функција конвексна, сви локални минимуми су и голобални, па у овом случају опадајући градијент конвергира ка глобалном решењу.

Remove ads

Одабир величине корака γ {\displaystyle \gamma }

Погрешно одабрано може да проузрокује да алгоритам не конвергира па је добар одабир величине корака изузетно битно. Уколико је сувише велико, алгоритам ће да дивергира а уколико је сувише мало конвергенција ће бити веома спора.

Можемо да одаберемо да корак буде фиксне величине или да у свакој итерацији узимамо другачију вредност. У пракси, корак се најчешће одређује тако што се одабере неколико могућих вредности из одређеног опсега па се затим бира она вредност која нам највише одговара.

Такође постоје и математички модели за одређивање корака γ као што су: метода најстрмијег опадања, Барзилај анд Борвеин метода итд.

Remove ads

Примена

Овај алгоритам има изузетну примену у машинском учењу. Различити проблеми машинског учења (регресија, класификација итд) захтевају налажење оптималних параметара како би се добило најпрецизније могуће предвиђање.

Машинско учење

Један од кључних проблема линеарне регресије у машинском учењу је како одабрати параметре тако да функција

буде минимална

Псеудо код

Понављај док конвергира

Изворни код (Octave)

function [theta, J_history] = gradientDescent(X, y, theta, alpha, num_iters)
m = length(y);
J_history = zeros(num_iters, 1);

for iter = 1:num_iters
	temp0 = theta(1,1) - alpha*(1/m)*sum((theta(1,1).*X(:,1)+theta(2,1).*X(:,2))-y);
	temp1 = theta(2,1) - alpha*(1/m)*sum(((theta(1,1).*X(:,1)+theta(2,1).*X(:,2))-y).*X(:,2));
	theta(1,1) = temp0;
	theta(2,1) = temp1;
        J_history(iter) = computeCost(X, y, theta);
end
Remove ads

Референце

Литература

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads