二維之K-L轉換推導係自原先輸入信號之自協方矩陣
![{\displaystyle C_{x_{i}x_{j}}=E[x_{i},x_{j}]}](//wikimedia.org/api/rest_v1/media/math/render/svg/cbf1e87e0a140bd35e38a644f460e0a43f987e0f) 
亦即
![{\displaystyle C_{x_{i}x_{j}}={\begin{bmatrix}E[x_{1},x_{1}]&E[x_{1},x_{2}]&E[x_{1},x_{3}]&\dots &E[x_{1},x_{j}]&\dots &E[x_{1},x_{N}]\\E[x_{2},x_{1}]&E[x_{2},x_{2}]&E[x_{2},x_{3}]&\dots &E[x_{2},x_{j}]&\dots &E[x_{2},x_{N}]\\\vdots &\vdots &\vdots &\ddots &\vdots &\ddots &\vdots \\E[x_{i},x_{1}]&E[x_{i},x_{2}]&E[x_{i},x_{3}]&\dots &E[x_{i},x_{j}]&\dots &a_{in}\\\vdots &\vdots &\vdots &\ddots &\vdots &\ddots &\vdots \\E[x_{M},x_{1}]&E[x_{M},x_{2}]&E[x_{M},x_{3}]&\dots &E[x_{M},x_{j}]&\dots &E[x_{M},x_{N}]\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/b182a3aa198db8082656bed3728dca0c4d8b3120) 
而得,此處假設輸入信號x已經先減去平均值。
而當輸入彼此具高度相關性,如影像等,則可假設其在水平與垂直方向上得以被分離,並以水平與垂直之相關係數 加以表示
加以表示
假設 與
 與  之水平和垂直距離分別為
 之水平和垂直距離分別為 
則 ![{\displaystyle E[x_{i},x_{j}]=\rho _{H}^{h}\cdot \rho _{V}^{v}}](//wikimedia.org/api/rest_v1/media/math/render/svg/13981b81e4aec6afed85af2b4a3b7a0fa17e8b3d) 
以一3x2之輸入  為例
 為例
此時  
而對於任意尺寸的水平或垂直方向之共變異數矩陣可以表示成
 
可發現其值僅與  有關,取其閉合形式,其基底元素
 有關,取其閉合形式,其基底元素 為
 為
 
此處  為
 為  之特徵值
 之特徵值
 
其中  
對於不同的輸入影像,其 會有所不同,而若是令
會有所不同,而若是令  ,則此轉換不必與輸入相關,同時繼承了K-L轉換去除相關性的優異性質。
,則此轉換不必與輸入相關,同時繼承了K-L轉換去除相關性的優異性質。
此時  
代入上式,得 KLT| ,
 , 
離散餘弦轉換較K-L轉換在實務上較為有利,因其毋須紀錄會隨輸入而改變的轉換矩陣。