トップQs
タイムライン
チャット
視点

ファインチューニング (機械学習)

ウィキペディアから

Remove ads

機械学習の文脈において、ファインチューニング: fine-tuning、微調整)は、事前学習したモデルの重みを新しいデータで訓練する転移学習の一つの手法である[1]。ファインチューニングは、ニューラルネットワーク全体で行うことも、また一部の層に対してのみ行うこともできる。後者の場合、ファインチューニングを行わない層は「凍結」され、バックプロパゲーションの過程で更新されない[2]

概要

要約
視点

畳み込みニューラルネットワークなど、いくつかのアーキテクチャでは、浅い層(入力層に最も近い側)は低レベルの特徴を捉えるために凍結しておくのが一般的で、それより深い層は、モデルが訓練されたタスクとより関連しうる高レベルの特徴を識別することがよくある[2][3]

自然言語処理(NLP)、特に言語モデリングの分野では、ファインチューニングはよく行われる方法である。たとえば、OpenAIGPT-2のような大規模言語モデルの場合、下流のNLPタスクでファインチューニングを行うことで、事前学習モデルが通常達成するよりも優れた結果を得ることができる[4]。大規模かつ一般的なコーパスで事前訓練されたモデルは、通常、出発点としてモデルパラメータを再利用し、最初から訓練されたタスク固有の層を追加することでファインチューニングされる[5]。モデル全体をファインチューニングすることも一般的で、より良い結果が得られることが多いが、その代わりに計算量が多くなる[4]。また、完全なファインチューニングは過剰適合を起こしやすく、ファインチューニングで使用した訓練データの分布以外のデータに対してモデルの性能を低下させる可能性がある[6]

ファインチューニングは通常、教師あり学習で行われるが、弱教師あり学習英語版でモデルをファインチューニングする技術もある[7]。また、ChatGPTGPT-3のファインチューニング版)やSparrow英語版などの言語モデルのファインチューニングには、人間のフィードバックによる強化学習が使用されている[8][9]低ランク適応: Low-Rank Adaptation, LoRA)は、既存の重みに追加する低ランク行列英語版(更新行列)を訓練するのに役立つ[10]。基本的な考え方は次のとおりである。モデル内に 行列 があり、 が大きい場合、 自体を に修正するか、 と定義して、 を訓練することができる。ここで、 はサイズ であり、 は更新行列 の低ランクである。

LoRAは言語モデルによく使われるほか、画像モデルにも使われる[11]

Remove ads

参考項目

  • 転移学習 - 以前に学習した知識を、新しい問題に適用しようする機械学習の研究領域
  • 大規模言語モデル - ニューラルネットワークで構成された言語モデル

脚注

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads