獲取啲下界函數
攞到啲下界函數
嘅方法可以係對個對數形式概率
進行變形。對於潛在變數
同埋某個佢個分佈
,顯在嘅對數概率
可以寫得成
亦即係
嘅形式:

由於
,所以有:

喺當中拆出
有:

注意到左右兩䊆分別可以表示成期望同埋KL散度,似下式:
![{\displaystyle \log p_{\mathbf {\theta } }(\mathbf {x} )={\mathbb {E} _{\mathbf {z} \sim q(\mathbf {z} )}[\log {\dfrac {p_{\theta }(\mathbf {x} ,\mathbf {z} )}{q(\mathbf {z} )}}]}+\mathbb {KL} [q(\mathbf {z} )\|p_{\theta }(\mathbf {z} \mid \mathbf {x} )]}](//wikimedia.org/api/rest_v1/media/math/render/svg/9067bc1a1e5528dc1cf376a92176092cd52c4501)
個KL散度(即
)可以直觀啲噉理解爲:從
嚟睇,
戥佢走差有幾多;KL散度等於零嗰陣,兩樣嘢基本可以睇作係喺所有埞方都相等。因爲KL散度係非負(大於等於零),所以有:
![{\displaystyle \log p_{\mathbf {\theta } }(\mathbf {x} )\geq {\mathbb {E} _{\mathbf {z} \sim q(\mathbf {z} )}[\log {\dfrac {p_{\theta }(\mathbf {x} ,\mathbf {z} )}{q(\mathbf {z} )}}]}}](//wikimedia.org/api/rest_v1/media/math/render/svg/cb7ad53869835f30e5c66193fc676f1376eb901d)
即個
查實就係
嘅下界,亦即係證據下界(evidence lower bound,ELBO),記作
。所以最好就係
,噉樣有KL散度爲零,個
又得最大化。但因爲
好難攞到,好多時衹有好特殊嘅算法情況下先做得到令兩便相等,種情況係期望–最大化算法(expectation–maximization algorithm,EM Algorithm)。簡單嚟講EM–Algorithm係調校個
嚟最細化個KL散度令到
得最大化先(即「Expectation」),再喺個
下搵返一個
最佳嘅令
最大,即又令到
喺
方面得到最大化(即「Maximization」),再返去E動作繼續校細個
……噉樣往復做落去最終去達到最佳。