热门问题
时间线
聊天
视角
流形正則化
来自维基百科,自由的百科全书
Remove ads
機器學習中,流形正則化(Manifold regularization)是一種利用數據集形狀以約束應在數據集上被學習的函數的技術。在很多機器學習問題中,待學習數據不能涵蓋整個輸入空間。例如,人臉識別系統不需要分類所有圖像,只需分類包含人臉的圖像。流形學習技術假定相關數據子集來自流形,是一種具有有用屬性的數學結構;且待學習函數是光滑的,即不同標籤的數據不應靠在一起,即在有大量數據的區域,標籤函數不應快速變化。這樣,流形正則化算法便可利用無標數據,通過推廣的吉洪諾夫正則化推斷哪些區域允許待學習函數快速變化,哪些區域不允許。流形正則化算法可將監督學習算法推廣到半監督學習和轉導,因為當中有無標數據。流形正則化技術已被應用於醫學成像、大地成像與物體識別等領域。

Remove ads
流形正則器
流形正則化是正則化的一種。正則化是通過懲罰複雜解,以減少過擬合、確保問題良置的一系列技術。具體說,流形正則化擴展了應用於再生核希爾伯特空間(RKHSs)的吉洪諾夫正則化。在RKHS的標準吉洪諾夫正則化下,學習算法試圖從函數的假設空間中學習函數f。假設空間是RKHS,就是說與核K相關聯,於是候選函數f都有範數,代表候選函數在假設空間中的複雜度。算法會考慮候選函數的範數,以懲罰複雜函數。
形式化:給定一組有標訓練數據,其中,以及損失函數V。基于吉洪諾夫正則化的學習算法將試圖求解
其中是超參數,用於控制算法對簡單函數與更能擬合數據的函數的偏好。

流形正則化在標準吉洪諾夫正則化的環境正則項(ambient regularizer)上增加了第二個正則化項——內蘊正則項(intrinsic regularizer)。在流形假設下,數據不是來自整個輸入空間X,而是來自非線性流形。流形(即內蘊空間)的幾何用於確定正則化範數。[1]
Remove ads
內蘊正則項有很多選擇。如流形上的梯度,可以衡量目標函數的光滑程度。光滑函數應在輸入數據密集處變化較慢,即梯度與邊際概率密度(marginal probability density)(隨機選定的數據點落在x處的概率密度)呈負相關。這就為內蘊正則項提供了合適的選擇:
實踐中,由於邊際概率密度未知,無法直接計算範數,但可根據數據進行估計。
將輸入點間距解釋為圖,圖的拉普拉斯矩陣就可幫助估計邊際分布。假設輸入數據包括個有標例子(輸入x與標籤y的點對)、u個無標例子(無對應標籤的輸入)。定義W為圖的邊權重矩陣,是數據點間的距離。定義D為對角矩陣,其中。L是拉普拉斯矩陣。則,隨着數據點數增加,L將收斂於拉普拉斯-貝爾特拉米算子,其是梯度的散度。[2][3]則若是f在數據處的值向量,,則就可估計內蘊範數:
隨着數據點數增加,的經驗定義會收斂到已知時的定義。[1]
Remove ads
用權重作為環境正則項和內蘊正則項,最終的待解表達式變為
與其他核方法類似,可能是無限維空間。因此,若正則化表達式無法明確求解,就不可能在整個空間中搜索解;相反,表示定理表明,在選擇範數的特定條件下,最優解必須是以每個輸入點為中心的核的線性組合:對某些權重
利用這結果,可在的可能選擇定義的有限維空間中搜索最優解。[1]
Remove ads
圖拉普拉斯之外的想法是利用鄰域估計拉普拉斯量。這種方法類似於局部平均法,但眾所周知處理高維問題時擴展性很差。事實上,圖拉普拉斯函數會受到維數災難影響。[2] 幸運的是,通過更先進的泛函分析,可利用函數的預期光滑性進行估算:由核導數估計拉普拉斯算子的值,其中表示對第一個變量第j個坐標的偏導數。[4] 這第二種方法與無網格法有關,同PDE中的有限差分法形成對比。
Remove ads
應用
選擇適當的損失函數V、假設空間,流形正則化可推廣到各種可用吉洪諾夫正則化表達的算法。兩個常用例子是支持向量機和正則化最小二乘法。(正則化最小二乘包括嶺回歸;相關的LASSO、彈性網正則化等算法可被表為支持向量機。[5][6])這些算法的推廣分別稱作拉普拉斯正則化最小二乘(LapRLS)和拉普拉斯支持向量機(LapSVM)。[1]
正則化最小二乘(RLS)是一類回歸分析算法:預測輸入x的值,目標是使預測值接近數據的真實標籤。RLS的設計目標是在正則化的前提下,最大限度減小預測值與真實標籤之間的均方誤差。嶺回歸是RLS的一種形式,一般來說RLS與結合了核方法的嶺回歸是一樣的。[來源請求]在吉洪諾夫正則化中,損失函數V的均方誤差是RLS問題陳述的結果:
根據表示定理,解可寫作在數據點求值的核的加權和:
解可得
其中K定義為核矩陣,,Y是標籤向量。
為流形正則化添加拉普拉斯項,得到拉普拉斯RLS的表達:
再根據流形正則化的表示定理,可知
這就得到了向量的表達式。令K是上述核矩陣,Y是數據標籤向量,J是分塊矩陣:
解是
LapRLS已被用於傳感器網絡、[7] 醫學成像、[8][9] 物體檢測、[10] 光譜學、[11] 文檔分類、[12] 藥物-蛋白質相互作用、[13] 壓縮圖像與視頻等問題。[14]
Remove ads
支持向量機(SVMs)是一系列算法,常用於數據分類。直觀說,SVM在類間畫出邊界,使最接近邊界的數據儘量遠離邊界。這可直接表為線性規劃問題,但也等同於帶鉸鏈損失的吉洪諾夫正則化,即:
將內蘊正則化項加進去,就得到了LapSVM問題的陳述:
同樣,表示定理允許用在數據點得值的核表示解:
將問題重寫為線性規劃問題、求解對偶問題就可得到。令K是核矩陣、J是分塊矩陣,則解可寫作
其中是對偶問題的解
Q的定義是
LapSVM已被應用於大地成像、[17][18][19] 醫學成像、[20][21][22] 人臉識別、[23] 機器維護、[24] 腦機接口等問題。[25]
Remove ads
局限
Remove ads
另見
參考文獻
外部連結
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads