トップQs
タイムライン
チャット
視点
フローベース生成モデル
ウィキペディアから
Remove ads
フローベース生成モデル(フローベースせいせいモデル、英:Flow-based generative model)は、機械学習で使われる生成モデルの一つである。確率分布の変数変換則を用いた手法である正規化流 (英: normalizing flow)[1]を活用し確率分布を明示的にモデル化することで、単純な確率分布を複雑な確率分布に変換する。
尤度関数を直接的にモデリングすることには多くの利点がある。例えば、負の対数尤度を損失関数として直接計算して最小化することができる。また、変換前の分布からサンプリングし、フローによる変換を適用することにより、複雑な分布に基づいた新しいサンプルを生成することができる。
これとは対照的に、変分オートエンコーダ(VAE)や生成的敵対的ネットワークなどの多くの代替生成モデリング手法は、尤度関数を明示的に表現しない。
方法
要約
視点
を確率分布 に従う(一変数または多変数の)確率変数であるとする。
について、を から変換された確率変数の列であるとする。ここで関数 は逆変換可能である必要がある:すなわち、逆関数 が存在する。最終的な出力はモデル化したい分布を表す。
ここで、の対数尤度は以下の様に表される(対数尤度の導出参照):
対数尤度を効率的に計算するためには、関数は次の性質を満たす必要がある:
- 逆変換が容易である。
- ヤコビ行列式を計算しやすい。
実際には、関数はディープニューラルネットワークを使用してモデル化され、対象となる分布からのデータサンプルの負の対数尤度を最小化するように訓練される。これらの手法は通常、逆行列式とヤコビ行列式の両方の計算でニューラルネットワークの順方向演算のみが必要になるように設計される。このような手法の例として、NICE[2]、 RealNVP[3] 、およびGlow[4]がある。
対数尤度の導出
変数 及び について、 であるとする。
確率密度の変数変換公式より、 の従う確率分布は以下のように書ける:
逆関数定理により
恒等式 により(は正則行列)、次が導ける:
したがって、対数尤度は次のようになる。
一般に、上記の式は全ての 及び に適用される 。 は から非再帰的な項を引いたものに等しいので、数学的帰納法より以下が示せる。
Remove ads
派生
要約
視点
Continuous Normalizing Flow(CNF)
関数の合成によってフローを構築する代わりに、別のアプローチとして、フローを連続時間ダイナミクスとして定式化することができる[5]。 を分布 を持つ潜在変数であるとする。以下のフロー関数を使用して、この潜在変数をデータ空間に写す。
ここで は任意の関数であり、ニューラルネットワークなどでモデル化できるとする。
その場合、逆関数は次のようになる[5]。
このとき の対数尤度は以下で与えられる[5]:
実用上では Neural ODE[6] などの数値積分手法が必要になる場合がある。
Remove ads
応用
フローベース生成モデルは、次のようなさまざまなモデリングタスクに適用されている。
参考文献
外部リンク
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads