トップQs
タイムライン
チャット
視点

赤池情報量規準

ウィキペディアから

Remove ads

赤池情報量規準(あかいけじょうほうりょうきじゅん; 元々は An Information Criterion, のちに Akaike's Information Criterionと呼ばれるようになる)は、統計モデルの良さを評価するためのいくつかある指標のうちで最初に提唱されたものである。単にAICとも呼ばれ、この呼び方のほうが一般的である。統計学の世界では非常に有名な指標であり、多くの統計ソフトに備わっている。元統計数理研究所所長の赤池弘次が1971年に考案し1973年に発表した[1]

AICは、「モデルの複雑さと、データとの適合度とのバランスを取る」ために使用される。例えば、ある測定データを統計的に説明するモデルを作成することを考える。この場合、パラメータの数や次数を増やせば増やすほど、その測定データとの適合度を高めることができる。しかし、その反面、ノイズなどの偶発的な(測定対象の構造と無関係な)変動にも無理にあわせてしまうため、同種のデータには合わなくなる(過適合問題、Overfitting)。この問題を避けるには、モデル化のパラメータ数を抑える必要があるが、実際にどの数に抑えるかは難しい問題である。AICは、この問題に一つの解を与える。具体的にはAIC最小のモデルを選択すれば、多くの場合、良いモデルが選択できる[2]

公式は次の通りである。

ここでは最大尤度は自由パラメータの数である。

Remove ads

式の変形

要約
視点

AICは他にもさまざまな形で表される。

パラメータの数として局外変数(誤差の大きさを表すパラメータ)を数えない流儀があり、その場合、


となる。ここでは区別のため大文字の K を使ったが、通常は双方の「パラメータ数」の表現にはっきりした使い分けはない。AICはモデル間の互いの差のみが意味を持つため、定数項は無視し、2行目のように定義することもある。式の見かけは冒頭の式と同じだが、値は異なる。

各標本の誤差項が独立で確率分布正規分布の場合、


と表せる。n は標本サイズ、σi は各標本の標準誤差である。2行目は、定数項を省略した値である。

それに加えさらに、各標本の標準誤差が等しい場合は、


とまで単純化できる。

Remove ads

有限修正

要約
視点

AICはその導出に漸近理論を使っており、標本サイズ無限を仮定している。そのため、標本サイズが小さい場合(およそ数十程度まで)ではその仮定は妥当せずに偏りが生じる。具体的には、AIC最小化によるモデル決定を行なうとパラメータ数を過大に見積もってしまう。これに対する対策を「AICの有限修正」と呼ぶ。

N. Sugiura (1978) は漸近理論を使わない不偏推定量である c-AIC を導出した[3]

ここではサンプルサイズである。が大きくなるにつれて c-AIC は、AIC に収束してゆく。

たとえ n が小さくはなくても k / n が大きい(1に比べ十分に小さくない)場合には、一致性が成立しないため、 AIC はやはりパラメータ数を過大に見積もる。このような場合にも、c-AIC は正しい結果を出す。

ただし、c-AIC は漸近理論を使わないが、その代わりに誤差項が正規分布の一般化線形モデルを仮定している。そのため、それ以外の、たとえば誤差項が二項分布のモデルなどには適用できない。

Remove ads

他の規準との比較

しかし、AIC最小のものを選択すれば常に最良であるかと言うと一概にはそう言えない。そのため、AICの後、モデル選択規準として、BIC、CIC、DIC、EIC、GIC、PIC、TIC、WAIC、WBICなど多くの規準が提案されている。xICという名称のモデル以外では、MDLHQなどがある。

このうち、BIC(ベイズ情報量規準)、MDL(Minimum Description Length; 最小記述長)が特に有名である。ベイズモデルの予測力を測る規準として、1980年には赤池ベイズ情報量規準(ABIC)も提案され、広く用いられている。

また、GICは一般化情報量規準 (Generalized Information Criterion)で、統計的汎関数に基づいて提案された情報量規準である[4]

参考文献

教科書

関連項目

外部リンク

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads