トップQs
タイムライン
チャット
視点

畳み込みニューラルネットワーク

ウィキペディアから

畳み込みニューラルネットワーク
Remove ads

畳み込みニューラルネットワーク(たたみこみニューラルネットワーク、: convolutional neural network、略称: CNNまたはConvNet)は、畳み込みを使用しているニューラルネットワークの総称である。画像認識や動画認識、音声言語翻訳[1]レコメンダシステム[2]自然言語処理[3]コンピュータ将棋[4]コンピュータ囲碁[4]などに使用されている。

数式表記

要約
視点

畳み込みニューラルネットワークの定義は厳密に決まっているわけではないが、画像認識の(縦, 横, 色)の2次元画像の多クラス分類の場合、以下の擬似コードで書かれるのが基本形である[5]。ここから色々なバリエーションが作られている。損失関数交差エントロピーを使用し、パラメータは確率的勾配降下法で学習するのが基本形である。これらの偏微分自動微分を参照。

以下の繰り返し
    畳み込み層と活性化関数
    最大値プーリング
ベクトルに平坦化(flatten)
以下の繰り返し
    全結合層と活性化関数
ソフトマックス関数

畳み込み層

基本形は、入力 とカーネル とバイアス から出力 を下記で計算する。カーネルとバイアスが学習対象である。

より一般的な畳み込みは以下のように PyTorch では実装している[6]はm番目の入力チャンネルを、はn番目の出力チャンネルを、相互相関関数を意味する。

すなわち各出力チャンネルごとに入力チャンネル 枚分のカーネル が用意され、入力の各チャンネルのカーネルを用いた畳み込みの総和へバイアス項 が加算され、出力の各チャンネルとなっている。

畳み込み自体にその様な制限があるわけではないが、PyTorch 2.3 現在は、式からわかるように、入力チャンネル間は畳み込み処理ではなく和で計算され、また入力チャンネル に畳み込まれるカーネル は出力チャンネルごとに異なるという実装になっている。引数 groups を指定するとここら辺の挙動も変わる。

カーネルはしばしばフィルタと呼ばれる[7]。これは位置関係をもつ重みづけ和のスライド演算(畳み込み)がフィルタ適用と等価なことに由来する。

畳み込み処理自体は単純な線形変換である。出力のある1点を見ると局所以外の重みが全て0の全結合と等価であることからこれはわかる。多くのCNNでは畳み込み処理に引き続いてシグモイド関数やReLUなどの活性化関数による非線形変換をおこなう。[要出典]

活性化関数

活性化関数がReLUの場合、入力 から出力 を下記で計算する。学習するパラメータは無い。

最大値プーリング

カーネルの大きさが の場合、入力 から出力 を下記で計算する[8]。学習するパラメータは無い。

全結合層

ベクトルの全結合層は 入力 と重み とバイアス から出力 を下記で計算する。重みとバイアスが学習対象である。

Remove ads

事前知識

畳み込みニューラルネットワークはいくつかの事前知識がモデルに組み込まれている。これらは、1979年のネオコグニトロンの時に既に導入されている[9]

シフト不変性

畳み込みニューラルネットワークは、その重み(行列の)共有構造と並進不変特性に基づいて、シフト不変(shift invariant)あるいは位置不変(space invariant)人工ニューラルネットワークSIANN)とも呼ばれている[10][11]

シフト不変性は1979年のネオコグニトロンの時からそれを目的に畳み込みが導入されているが[12]、実際には厳密に成立しているわけではなく、Aharon Azulay 等の2018年の調査では1ピクセルずらしただけで最大30%精度が悪化することがあることが指摘されていて[13]、厳密にシフト不変性が成立する手法[14]も研究されている。

局所的特徴

近くにあるピクセルは関係し合っているという事前知識を使用している。例えば、2次元画像の畳み込みニューラルネットワークにおいて、3x3ピクセルの畳み込みを使用するということは、その3x3ピクセルが関係し合っているという事前知識を使用している。[9]

構造性

低次特徴を組み合わせて高次特徴を構成しているが、これは、部分が集まって全体が作られているという事前知識を使用している。[9]

Remove ads

畳み込み層のバリエーション

要約
視点

畳み込みニューラルネットワークの核となる手法は畳み込み処理(convolution)であり、それには様々な変種がある。以下はその一例である。

点単位畳み込み

2次元画像の場合は、下記を点単位畳み込みと呼ぶ。

がスカラーの畳み込みは点単位畳み込み(pointwise convolution)や1x1畳み込み(1x1 convolution)と呼称される[15]。例えば2DConvにおける1x1カーネルがある。出力チャネル に着目するとこの畳み込みは入力チャネルの加重平均とみなせる。あるいは各点(pointwise)での入力チャネルを跨いだ全結合とみなせる。処理全体では出力チャネルごとに異なる加重を用いて入力チャネル平均を取ることと同義である。利用目的には位置情報を保った(pointwiseな)変換、出力次元数 調整などが挙げられる。実装上は最小カーネルによる畳み込みで表現される(例: 2DConvにおける カーネル)。全結合層(Linear)を用いても容易に表現できる。

深さ単位畳み込み

2次元画像の場合は、下記を深さ単位畳み込みと呼ぶ。 である。

グループ化畳み込みのグループ数をチャネル数と一致させる、すなわちチャネル間の和をなくしたものは深さ単位畳み込み(depthwise convolution)と呼称される[16]

グループ化畳み込み

畳み込みの変種としてグループ化畳み込み(grouped convolution)がある。通常の畳み込みでは全入力チャネルの畳み込み和を計算するが、グループ化畳み込みでは入出力チャネルをいくつかのグループに分割しグループ内で通常の畳み込みと和をおこなう[17][18]。これによりカーネル枚数・計算量の削減、複数GPUを用いた学習、別技術と組み合わせた性能の向上などが可能になる(c.f. AlexNet, ResNeXt)。

深さ単位分離可能畳み込み

2次元画像の場合は、下記の深さ単位畳み込みして点単位畳み込みしたものを深さ単位分離可能畳み込みと呼ぶ。

深さ単位分離可能畳み込み(depthwise separable convolution)は空間方向の畳み込み層とチャネル方向の全結合層に分離した畳み込みモジュールである。すなわち通常の畳み込みを 深さ単位畳み込み + 点単位畳み込み で置き換えるモジュールである[19]。計算量・パラメータ量を1/10スケールで削減できる利点がある。

転置畳み込み

2次元画像の場合は、ストライドを とした時、下記の擬似コードで書かれるものを転置畳み込み(transposed convolution)と呼ぶ。 の時、最大値プーリングは約半分の大きさになるが、転置畳み込みは約2倍の大きさになる。[20]

for i, j, k, l, m, n in それぞれの値域
     += 

逆畳み込み(decovolution)やfractionally-strided convolutionとも呼ばれるが、逆畳み込みは別の意味で使われている言葉なので誤用である。[21]

Remove ads

プーリング層のバリエーション

要約
視点

現代では、最大値プーリングが基本形であるが、これも色々なバリエーションがある。

平均プーリング

2次元画像の場合は、カーネルの大きさが の場合、下記を平均プーリング(average pooling)と呼ぶ。[22]

ネオコグニトロンLeNetでは平均プーリングを採用していた。[9]

グローバル平均プーリング

2次元画像の場合は、カーネルの大きさが の平均プーリングをグローバル平均プーリング(global average pooling)と呼ぶ。ベクトルに平坦化(flatten)して全結合層を適用する代わりに使用できる。[23]

空間ピラミッドプーリング

カーネルの大きさが (1,1), (2,2), (4,4) のように、異なる大きさのプーリングを使用する手法を空間ピラミッドプーリング(spatial pyramid pooling)と呼ぶ。画像認識対象の物体の大きさが異なる場合に、事前知識としてスケール不変性を導入するために使用する。[24][25]

Remove ads

畳み込みニューラルネットワークのバリエーション

畳み込みニューラルネットワークは畳み込み処理を用いたニューラルネットワークの総称である。畳み込みの種類、カーネルのサイズと層の関係、特殊なモジュールの有無などにより様々なサブタイプ(変種)が存在する。

Recurrent CNN

単純なCNNは順伝播型 (FFN)、すなわち浅い層から深い層へのみ結合をもつ。ただしCNNは2層間の結合様式を規定するクラスでありFFNと限らない[要出典]。非FFN型CNNの一例として大局的に回帰結合をもち層間では畳み込みをおこなうRecurrent CNNが提唱されている[26]

Recurrent CNN(RCNN)は回帰結合を持つ畳み込みニューラルネットワークである[27]。すなわちフィードフォワード型 (FFN) ではなく回帰型 (RNN) のネットワーク構造を持ち、層間の結合に全結合 (MLP) ではなく畳み込みを採用したニューラルネットワークである。ゆえにCNNでありRNNでもある。

U-Net

U-Net はセマンティック・セグメンテーション用の畳み込みニューラルネットワーク。

Remove ads

受容野

要約
視点

受容野: receptive field)は出力中の一点と結合している入力の広さ・幅である[28][29]。すなわち出力中の一点へと情報を伝達しうる入力域である。視覚等の感覚神経における「受容野」から転用して名付けられた。

例えば1次元の入出力をもつ1層のCNNがあったとする。CNNのカーネルサイズが だった場合、出力 は入力 , , の重みづけ和で計算されるため受容野は になる。このCNNを2層重ねた場合、 は中間層 , , の和でありさらに , , , , の和となるため、CNNの受容野は になる。

Convパラメータ・変種およびネットワーク変種によって受容野サイズへ異なる影響を与える。以下はその一例である。

  • Kernelパラメータ: 受容野の端をカーネルで置き換える形で広げる
  • Strided Convolution: 受容野の端以外の部分をstride倍率に合わせて倍増させる
  • Dilated Convolution: 歯抜けカーネルであるため、より大きいカーネルとして振る舞う(例: k3d2はk5と同じ受容野)

受容野のサイズは再帰的に求めることができる。

層の畳み込みからのなるCNNを考える。ここでは第 を畳み込み で変換して次の層 を得る(例: 入力層 を作用させて中間層 を得る)。ここで はカーネルサイズ 、ストライド をもつとする。出力層 から見た における受容野を としたとき、次の式が成立する(図参照)[30]

Thumb
CNN受容野の再帰計算

よって を初期条件としてこの式を入力層受容野 まで再帰することで受容野を計算できる。

Remove ads

歴史

画像処理フィルタとして畳み込みを使用するという手法はコンピューターでの画像処理が登場した初期の段階から使われている手法である。エッジ検出ガウシアンぼかしなど多数ある。

畳み込みニューラルネットワークは動物の視覚野から発想を得て[31]福島邦彦によって提唱されたネオコグニトロンに起源を持つ[32][33][34]。ネオコグニトロンはニューラルネットワークで畳み込みを使用した。

有名なモデルとして以下のものがある。

2012年からのディープラーニングブームより前の画像認識は画像(ピクセルデータ)を注意深く設計されたデータ前処理により特徴量(1999年のSIFTや2006年のSURFなど)へ変換し、それを用いた学習が主流だった。例えば AlexNet が優勝した ILSVRC 2012 の2位のモデルの ISI は SIFT などを使用している[35]。畳み込みニューラルネットワークはピクセルを直接入力に用いることができ、特徴量設計において専門家の知識に依存しない特徴をもつとされた[38]。現在では畳み込みニューラルネットワーク以外のニューラルネットワーク(例: Vision Transformer; ViTMLPベースの gMLP)でもピクセル入力の画像処理が実現されている[39][40]。ゆえに畳み込みそのものが特徴量設計を不要にするキー技術であるとは言えないことがわかっている[要出典]

Remove ads

脚注

参考文献

関連項目

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads