Лучшие вопросы
Таймлайн
Чат
Перспективы
Выбор статистической модели
Из Википедии, свободной энциклопедии
Remove ads
Выбор модели — это задача выбора статистической модели из набора моделей-кандидатов по имеющимся данным. В простейшем случае рассматривается существующий набор данных. Однако задача может вовлекать планирование экспериментов, так что сбор данных связан с задачей выбора модели. Если заданы кандидаты в модели с одинаковой силой предсказания или объяснения, наиболее простая модель скорее всего будет лучшим выбором (бритва Оккама).
Кониси и Китагава[1] утверждают: «Большинство задач при статистическом выводе можно считать задачами, связанными со статистическим моделированием». Вместе с тем, Кокс[2] сказал: «Каким образом осуществлена трансляция от предметной задачи к статистической модели является наиболее критической частью анализа».
Выбор модели может также относиться к задаче выбора нескольких представляющих моделей из большого набора вычислительных моделей с целью принятия решения или оптимизации в условиях неопределённости.
Remove ads
Введение
Суммиров вкратце
Перспектива

В наиболее простых формах выбор модели является одной из фундаментальных задач научного поиска. Определение принципа, который объясняет ряд наблюдений, часто связан напрямую с математической моделью предсказания этих наблюдений. Например, когда Галилей осуществлял свои эксперименты с наклонной плоскостью, он демонстрировал, что движение шара идёт по параболе, предсказанной в его модели.
При бесконечном числе возможных механизмов и процессов, которые могут дать данные, как можно даже подступить к выбору лучшей модели? Математический подход обычно принимает решение среди набора кандидатов в модели. Этот набор должен быть выбран исследователем. Часто используются простые модели, такие как многочлены, по меньшей мере в начале. Бёрнем и Андерсен[3] подчёркивают в своей книге важность выбора моделей на основе научных принципов, таких как понимание феноменологических процессов или механизмов (например, химических реакций) для данных.
Когда множество кандидатов в модели выбрано, статистический анализ позволяет выбрать лучшую из этих моделей. Что означает слово лучшая, вопрос дискуссионный. Техника выбора хорошей модели будет балансировать между адекватностью модели и простотой. Более сложные модели способны лучше адаптироваться к данным (например, многочлен пятой степени может в точности представлять шесть точек), однако дополнительные параметры могут не представлять ничего полезного (возможно, эти шесть точек на самом деле случайным образом распределены вдоль прямой). Адекватность модели обычно определяется с помощью отношения правдоподобия или приближения к нему, что приводит к критерию хи-квадрат. Сложность в общем случае измеряется подсчётом числа параметров модели.
Техники выбора модели можно считать оценками некоторых физических величин, таких как вероятность того, что модель даст имеющиеся данные. Смещение и дисперсия являются важными показателями качества предсказателя. Часто рассматривается также показатель эффективности.
Стандартным примером выбора модели служит подбор кривой, где, по заданному набору точек и другим сведениям общего характера (например, когда точки являются результатом выборки независимых случайных величин), мы должны выбрать кривую, которая описывает функцию, генерирующую точки.
Remove ads
Методы для выбора множества кандидатов в модели
Критерии
Суммиров вкратце
Перспектива
Если заранее ограничиваться рассмотрением только моделей авторегрессии (AR), то есть полагать, что процесс Xt следует модели AR(k) с неизвестным истинным порядком k, то для определения k в таких ситуациях долгое время использовался[4]
- Информационный критерий Акаике (AIC), мера адекватности статистической модели. Впоследствии было выяснено, что оценка Акаике несостоятельна и асимптотически переоценивает (завышает) истинное значение k0 с ненулевой вероятностью[4].
Более предпочтительным является часто используемый в настоящее время[4]
- Байесовский информационный критерий (BIC), известный также как информационный критерий Шварца, статистический критерий выбора модели.
Несколько позднее был предложен[4]
- Информационный критерий Хеннана – Куинна[англ.], обладающий более быстрой сходимостью к истинному значению k0 при . Однако при небольших значениях T этот критерий недооценивает порядок авторегрессии.
Часто используется
Используются также следующие критерии
- Перекрёстная проверка
- Информационный критерий отклонения[англ.] (DIC), ещё один байесовский критерий выбора модели
- Критерий эффективности опознавания (англ. Efficient determination criterion, EDC)
- Уровень ложноположительных результатов[англ.]
- Сфокусированный информационный критерий[англ.] (FIC), критерий выбора статистических моделей по их эффективности для заданного параметра
- Тест отношения правдоподобия, статистический тест, используемый для проверки ограничений на параметры статистических моделей, оцененных на основе выборочных данных.
- Статистика Cp Мэллоуса[англ.]. Считается, что для хорошей модели эта статистика должна принимать значения, близкие к числу параметров модели (включая свободный член)[5].
- Принцип минимальной длины описания (Алгоритмическая теория информации) — это формализация бритвы Оккама, в которой лучшая гипотеза (модель и её параметры) для данного набора данных это та, которая ведёт к лучшему сжиманию данных.
- Сообщение минимальной длины (Алгоритмическая теория информации)
- Структурная минимизация риска[англ.]
- Ступенчатая регрессия[англ.]. Цель пошаговой регрессии состоит в отборе из большого количества предикатов небольшой подгруппы переменных, которые вносят наибольший вклад в вариацию зависимой переменной.
- Информационный критерий Ватанабе — Акаике[англ.] (WAIC), информационный критерий широкого применения
Remove ads
См. также
- Все модели неправильны[англ.]
- Анализ конкурирующих гипотез[англ.]
- Автоматическое машинное обучение
- Дилемма смещения–дисперсии
- Парадокс Фридмана[англ.]
- Поиск по сетке параметров
- Анализ идентифицируемости[англ.]
- Логарифмический линейный анализ[англ.]
- Идентификация систем
- Бритва Оккама
- Оптимальный план эксперимента[англ.]
- Задача выбора параметра[англ.]
- Обоснование регрессионной модели[англ.]
- Моделирование
- Парадокс Штайна[англ.]
Remove ads
Примечания
Литература
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads