Топ питань
Часова шкала
Чат
Перспективи
Методи Монте-Карло марковських ланцюгів
З Вікіпедії, вільної енциклопедії
Remove ads
У статистиці, ме́тоди Мо́нте-Ка́рло ма́рковських ланцюгі́в (МКМЛ, англ. Markov Chain Monte Carlo, MCMC) — це клас алгоритмів для вибірки з розподілу ймовірностей на базі побудови такого ланцюга Маркова, що має бажаний розподіл як свій рівноважний розподіл. Тоді стан цього ланцюга після якогось числа кроків використовується як вибірка з бажаного розподілу. Якість вибірки покращується як функція від кількості кроків.

Ме́тоди Мо́нте-Ка́рло випадко́вого блука́ння складають великий підклас методів МКМЛ.
Remove ads
Області застосування
- Методи МКМЛ здебільшого застосовуються для обчислення чисельних наближень багатовимірних інтегралів, наприклад, у баєсовій статистиці, обчислювальній фізиці, обчислювальній біології та обчислювальній лінгвістиці.[1][2]
- У баєсовій статистиці нещодавні розробки методів МКМЛ стали ключовим кроком в уможливленні обчислення великих ієрархічних моделей, що вимагають інтеграції над сотнями або навіть тисячами невідомих параметрів.[3]
- Їх також застосовують для генерування вибірок, що поступово покривають зону рідкісного збою у виборі рідкісних подій[en].
Remove ads
Класифікація
Узагальнити
Перспектива
Методи Монте-Карло випадкового блукання
Багатовимірні інтеграли
Коли методи МКМЛ застосовуються для наближення багатовимірних інтегралів, то всюди випадково рухається ансамбль ходаків. У кожній точці, де ступає ходак, до інтегралу зараховується значення підінтегрального в цій точці. Потім ходак може зробити якусь кількість пробних кроків цією зоною, шукаючи місця з прийнятно високим внеском до інтегралу, щоби рухатися туди далі.
Методи Монте-Карло випадкового блукання є різновидом випадкового моделювання, або методу Монте-Карло. Проте, тоді як випадкові вибірки, що використовуються у звичайному інтегруванні Монте-Карло[en], є статистично незалежними, ті, що використовуються у методах МКМЛ, є корельованими. Ланцюг Маркова будується таким чином, щоби мати підінтегральне як свій рівноважний розподіл.
Приклади
Приклади методів Монте-Карло випадкового блукання включають наступні:
- Алгоритм Метрополіса — Гастінгса: Цей метод породжує випадкове блукання із застосуванням густини пропозиції та методу відкидання деяких із запропонованих рухів.
- Вибірка за Ґіббсом[en]: Цей метод вимагає, щоби було точно вказано вибірки з усіх умовних розподілів цільового розподілу. Він є популярним зокрема тому, що не вимагає жодного «регулювання».
- Вибірка за рівнями[en]: Цей метод залежить від того принципу, що можна робити вибірку з розподілу шляхом рівномірної вибірки з області під графіком функції його густини. Він чергує рівномірну вибірку у вертикальному напрямку з рівномірною вибіркою з горизонтального «рівня», визначеного поточною вертикальною позицією.
- Багатоспробовий метод Метрополіса[en]: Цей метод є варіацією алгоритму Метрополіса — Гастінгса, що дозволяє багаторазові спроби у кожній точці. Дозволяючи робити більші кроки на кожній ітерації, він допомагає розв'язувати прокляття розмірності.
- Реверсивно-стрибковий[en]: Цей метод є варіацією алгоритму Метрополіса — Гастінгса, що дозволяє пропозиції, які змінюють розмірність простору.[4] Методи МКМЛ, що змінюють розмірність, тривалий час застосовуватися у статистичній фізиці, де для деяких задач використовується розподіл, що є великим канонічним ансамблем (наприклад, коли кількість молекул у коробці є змінною). Але реверсивно-стрибковий варіант є корисним при виконанні МКМЛ або вибірки за Ґіббсом над непараметричними[en] баєсовими моделями, такими як пов'язані з процесом Діріхле[en] чи процесом китайського ресторану[en], де кількість змішуваних складових/кластерів/тощо автоматично виводиться з даних.
Інші методи МКМЛ
![]() | Цей розділ потребує доповнення. (серпень 2015) |
Взаємодійні методології МКМЛ є класом методів частинок осередненого поля[en] для отримання випадкових виборок із послідовності розподілів ймовірності зі зростаючим рівнем складності вибірки.[5] Ці ймовірнісні моделі включають моделі простору шляху зі збільшуваним часовим горизонтом, апостеріорними розподілами відносно послідовності часткових спостережень, збільшуваними наборами рівнів обмежень для умовних розподілів, зменшуваними графіками температури, пов'язаними з деякими розподілами Больцмана — Ґіббса, та багато інших. У принципі, будь-який відбірник МКМЛ може бути перетворено на взаємодійний відбірник МКМЛ. Ці взаємодійні відбірники МКМЛ може бути інтерпретовано як спосіб паралельного виконання відбірників МКМЛ. Наприклад, взаємодійні імітаційні алгоритми ренатурації базуються на незалежних кроках Метрополіса — Гастінгса, що послідовно взаємодіють з механізмом типу вибору/повторного взяття вибірки. На відміну від традиційних методів МКМЛ, параметр точності цього класу взаємодійних відбірників МКМЛ стосується лише кількості відбірників МКМЛ, що взаємодіють. Ці передові частинкові методології належать до класу частинкових моделей Фейнмана-Каца,[6][7] що у спільнотах баєсового висновування та обробки сигналів називаються також послідовними методами Монте-Карло[en], або частинковими фільтрами[en].[8] Взаємодійні методи МКМЛ також може бути інтерпретовано як генетичні частинкові алгоритми мутації-відбору з мутаціями МКМЛ.
Методи квазі-Монте-Карло марковських ланцюгів (КМКМЛ, англ. Markov Chain quasi-Monte Carlo, MCQMC).[9][10] Перевага використання послідовностей з низькою розбіжністю замість випадкових чисел для простої незалежної вибірки Монте-Карло добре відома.[11] Ця процедура, відома як метод квазі-Монте-Карло (КМК, англ. Quasi-Monte Carlo method, QMC),[12] відповідно до нерівності Коксма-Главка[en] дає інтеграційну помилку, що спадає значно швидше, ніж отримувана за допомогою вибірки НОР. Емпірично це дозволяє зменшувати як помилку оцінки, так і тривалість збіжності, на порядок величини.[джерело?]
Зменшення кореляції
Вдосконаленіші методи використовують різні шляхи зменшення кореляції між сусідніми елементами вибірки. Ці алгоритми можуть бути складнішими для втілення, проте вони зазвичай демонструють швидшу збіжність (тобто, досягнення точного результату за меншу кількість кроків).
Приклади
Приклади методів МКМЛ не випадкового блукання включають наступне:
- Гібридний алгоритм Монте-Карло[en] (ГМК, англ. Hybrid Monte Carlo, HMC): Намагається уникнути поведінки випадкового блукання за допомогою введення додаткового вектора імпульсу та реалізації гамільтонової динаміки, так, що функція потенціальної енергії є цільовою густиною. Імпульсні елементи вибірки відкидаються після вибірки. Кінцевим результатом гібридного алгоритму Монте-Карло є те, що пропозиції рухаються простором вибірки більшими кроками; вони відтак є менш корельованими, та швидше згортаються до цільового розподілу.
- Деякі варіації вибірки за рівнями також уникають випадкового блукання.[13]
- МКМЛ Ланжевена, та інші методи, що покладаються на градієнт (та, можливо, другу похідну) логарифму апостеріорного, уникають випадкового блукання, роблячи пропозиції, що правдоподібніше знаходяться в напрямку вищої густини ймовірності.[14]
Remove ads
Збіжність
Цей розділ не містить посилань на джерела. (серпень 2015) |
Побудувати ланцюг Маркова із потрібними властивостями зазвичай нескладно. Складнішою задачею є визначити, скільки кроків потрібно для згортки до стаціонарного розподілу із прийнятною помилкою. Добрий ланцюг матиме швидке перемішування[en]: стаціонарний розподіл досягається швидко при старті з довільного положення.
Типова вибірка МКМЛ може лише наближувати цільовий розподіл, оскільки завжди залишається якийсь залишковий вплив початкового положення. Вдосконаленіші алгоритми на базі МКМЛ, такі як спаровування з минулого[en], можуть видавати точні вибірки ціною додаткових обчислень та необмеженого (хоча й очікувано скінченного) часу виконання.
Багато методів Монте-Карло випадкового блукання рухаються навколо рівноважного розподілу відносно малими кроками, без тенденції до того, щоби кроки просувалися в одному напрямку. Ці методи є легкими для втілення та аналізу, але, на жаль, дослідження ходаком усього простору може забирати багато часу. Ходак часто повертатиметься, і повторно досліджуватиме вже досліджену місцевість.
Див. також
- Баєсове висновування
- Баєсова мережа
- Спаровування з минулого[en]
- Вибірка за Ґіббсом[en]
- Метод квазі-Монте-Карло
- Гібридний алгоритм Монте-Карло[en]
- Алгоритм Метрополіса — Гастінгса
- Багатоспробовий метод Метрополіса[en]
- Частинковий фільтр[en]
- Реверсивно-стрибковий[en]
- Вибірка за рівнями[en]
Примітки
Джерела
Література
- Diaconis, Persi (April 2009). The Markov chain Monte Carlo revolution (PDF). Bull. Amer. Math. Soc. 46 (2): 179—205. doi:10.1090/s0273-0979-08-01238-x. S 0273-0979(08)01238-X. (англ.)
- Press, W.H.; Teukolsky, S.A.; Vetterling, W.T.; Flannery, B.P. (2007), Section 15.8. Markov Chain Monte Carlo, Numerical Recipes: The Art of Scientific Computing (вид. 3rd), Cambridge University Press, ISBN 978-0-521-88068-8 (англ.)
- Richey, Matthew (May 2010). The Evolution of Markov Chain Monte Carlo Methods (PDF). The American Mathematical Monthly. 117 (5): 383—413. doi:10.4169/000298910x485923. (англ.)
Remove ads
Посилання
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads