トップQs
タイムライン
チャット
視点
正規化線形関数
ウィキペディアから
Remove ads
Remove ads
正規化線形関数(せいきかせんけいかんすう、英: Rectified linear functionあるいは単にrectifier[注釈 1]とも)は、引数の正の部分として定義される活性化関数であり、次のように表される。

上式において、 はニューロンへの入力である。これはランプ関数(傾斜路関数)としても知られ、電気工学における半波整流回路と類似している。この活性化関数は、1993年にTangらによって新しいニューロンモデルとして最初に提案され、ニューラルネットワークの学習に適用し、その有効性が示された[1]。2000年にHahnloseらによって強い生物学的動機と数学的正当化を持って、動的ネットワークへに導入された[2][3]。2011年以前に広く使われていた活性化関数、例えばロジスティックシグモイド(これは確率論から発想を得ている。ロジスティック回帰を参照。)およびそのより実践的な[4]機能的に同等な関数である双曲線正接関数と比較して、より深いネットワークのより良い訓練を可能にすることが2011年に初めて実証された[5]。2018年現在、ディープニューラルネットワークで最も広く使われている活性化関数が、この正規化線形関数である[6][7]。
正規化線形関数を利用したユニットは正規化線形ユニット(rectified linear unit、ReLU)とも呼ばれる[8]。
正規化線形ユニットはディープニューラルネットワークを用いたコンピュータビジョン[5]や音声認識[9][10]に応用されている。
Remove ads
ソフトプラス
要約
視点
正規化線形関数に対する平滑化近似が解析関数
であり、ソフトプラス(softplus)関数[11][5]またはSmoothReLU関数[12]と呼ばれる。ソフトプラスの導関数はロジスティック関数である。ロジスティック関数は、正規化線形関数の導関数であるヘヴィサイドの階段関数の平滑化近似である。
単変数ソフトプラスの多変数一般化は、第一独立変数をゼロとしたLogSumExp関数
である。LogSumExp関数自身は
であり、その勾配はソフトマックス関数である。第一独立変数がゼロのソフトマックスは、ロジスティック関数の多変数一般化である。LogSumExpとソフトマックスはどちらも機械学習に用いられる。
Remove ads
派生物
要約
視点
ノイジーReLU
正規化線形ユニットはガウス雑音を含むように拡張できる。これはnoisy(雑音のある)ReLUと呼ばれ、以下の式を与える[8]。
- , with
Noisy ReLUはコンピュータビジョン問題のための制限ボルツマンマシンにおいて使用され、ある程度の成功を挙げている[8]。
漏洩ReLU
漏洩(リーキー、Leaky)ReLUは、ユニットがアクティブでない時に小さな正の勾配を許容する[10]。
パラメトリックReLU
パラメトリックReLU (PReLU) はさらにこの着想を発展させ、漏れの係数を他のニューラルネットワークのパラメータと同時に学習する[13]。
について、これは
と等価であり、ゆえに「マックスアウト」ネットワークとの関連があることに留意すべきである[13]。
ELU
指数関数的線形ユニット(Exponential linear unit)は、学習を高速化するため、平均活性化をゼロに近づけようと試みる。ReLUよりも高い分類制度を得ることができると示されている[14]。
はチューニングされるハイパーパラメータ、 は定数である。
Swish
Swish関数、もしくはシグモイド重み付き線形ユニット (Sigmoid-weighted linear unit) はReLUに類似した曲線を描くが、その曲線は連続的であり無限階微分可能である。ReLU及び先述した派生形よりも高い分類精度を得ることができると示されている[15][16]。
なお、ここでは は以下の数式によって定義される標準シグモイド関数を表す。
Funnel Activation
Funnel Activation、もしくはFReLUはコンピュータビジョンに特化した活性化関数であり、二次元の画像に対して適応することを前提として設計されたものである[17]。性質上、Funnel Activationを一つの値を入力とする関数として表すことはできないが、記述の都合上以下の数式で表される。
なお、は他のニューラルネットワークのパラメータと同時に学習されるDepthwise 畳み込みモジュールである。
Remove ads
長所
- 生物学的妥当性
- 疎な活性化
- 例えば、無作為に初期化されたネットワークでは、隠れユニットの約50%のみが活性化される(ゼロでない出力を持つ)。
- より良い勾配伝搬
- 両方向に飽和するシグモイド活性化関数と比較して、勾配消失問題が少ない。
- 効率的計算
- 比較、加算、乗算のみ。
- スケールによって影響を受けない
- 。
正規化線形関数は、複数のコンピュータビジョン課題を学習するために教師ありで訓練されたニューラル抽象ピラミッド (Neural Abstraction Pyramid) において特異的興奮と非特異的抑制を分離するために用いられた[18]。2011年[5]、非線形関数としての正規化線形関数の使用は、教師なし事前学習を必要とせずに教師ありディープニューラルネットワークの訓練を可能にすることが示されている。正規化線形ユニットは、シグモイド関数または類似の活性化関数と比較して、大きく複雑なデータセット上のディープニューラル構造のより速く、効率的な訓練を可能にする。
潜在的な問題
- 原点において微分不可能
- しかしながら、その点以外ではどこでも微分可能であり、入力が0の点を埋めるために0または1の値を任意に選ぶことができる。
- 原点を中心としていない
- 有界でない
- Dying ReLU問題
- ReLUニューロンは、実質的に全ての入力に対して不活性となる状態に入り込むことがあり得る。この状態において、勾配はこのニューロンを通って逆方向に流れないため、このニューロンは永久に不活性な状態で動かなくなり、「死」んでしまう。これは勾配消失問題の一種である。ある場合において、ネットワーク中の多くのニューロンが死状態で動かなることがありえて、これはモデル容量を著しく低下させる。この問題は高過ぎる学習率が設定されている時に典型的に起こる。代わりに、x = 0の左側に小さな正の勾配を割り当てるリーキーReLUを用いることによって問題を緩和することができる。
脚注
関連項目
外部リンク
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads