Топ питань
Часова шкала
Чат
Перспективи

Марковська властивість

З Вікіпедії, вільної енциклопедії

Марковська властивість
Remove ads

У теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості відсутності пам'яті[en] в стохастичного процесу. Його названо на честь російського математика Андрія Маркова.[1]

Thumb
Одиночна реалізація тривимірного броунівського руху для часу 0 ≤ t ≤ 2. Броунівський рух має марковську властивість, оскільки зміщення частинки не залежить від її попередніх зміщень.

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (англ. Markov process). Термін си́льна ма́рковська власти́вість (англ. strong Markov property) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу.[2]

Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі.

Марковське випадкове поле (англ. Markov random field)[3] розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга.

Стохастичний процес дискретного часу[en], який задовольняє марковську властивість, відомий як марковський ланцюг.

Remove ads

Введення

Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану; тобто, з огляду на теперішнє, майбутнє не залежить від минулого. Процес із цією властивістю називають марковіа́ном (англ. Markovian), або ма́рковським проце́сом (англ. Markov process). Найвідомішим марковським процесом є марковський ланцюг. Також добре відомим марковським процесом є броунівський рух.

Remove ads

Історія

Визначення

Нехай є ймовірнісним простором з фільтрацією для деякої (лінійно впорядкованої) індексної множини , і нехай є вимірним простором. Про -значний стохастичний процес , пристосований до цієї фільтрації, кажуть, що він володіє марковською властивістю, якщо для будь-якої та будь-яких з

[4]

В разі, коли є дискретною множиною з дискретною сигма-алгеброю, а , це може бути переформульовано наступним чином:

.
Remove ads

Альтернативні формулювання

Марковська властивість може мати наступне альтернативне формулювання.

для всіх та обмежених і вимірних .[5]

Remove ads

Сильна марковська властивість

Припустімо, що є стохастичним процесом на ймовірнісному просторі з природною фільтрацією . Для будь-якого ми можемо визначити паросткову сигма-алгебру як перетин усіх для . Тоді для будь-якого моменту зупину на ми можемо визначити

.

Тоді про кажуть, що він має сильну марковську властивість, якщо для кожного моменту зупину , обумовленого подією , ми маємо, що для кожного , є незалежним від за заданого .

Сильна марковська властивість передбачає звичайну марковську властивість, оскільки сильну марковську властивість може бути зведено до неї взяттям моменту зупину .

Remove ads

Приклади

Узагальнити
Перспектива

Припустімо, що урна містить дві червоні кулі й одну зелену. Одну кулю витягли вчора, одну кулю витягли сьогодні, й останню кулю витягнуть завтра. Всі витягування є «без повернення».

Припустімо, що вам відомо, що сьогоднішня куля була червоною, але ви не маєте інформації про вчорашню кулю. Шанс того, що завтрашня куля буде червоною, складає 1/2. Це тому, що для цього випадкового експерименту лишилося лише два результати:

Більше інформації День, Результат 1 ...

З іншого боку, якщо ви знаєте, що як сьогоднішня, так і вчорашня кулі були червоними, тоді вам гарантовано отримати завтра зелену кулю.

Ця невідповідність показує, що розподіл імовірності завтрашнього кольору залежить не лише від поточного значення, але знаходиться також і під впливом інформації про минуле. Цей стохастичний процес спостережуваних кольорів не має марковської властивості. При використанні такого ж експерименту, як наведено вище, якщо «вибірку без повернення» замінено «вибіркою з поверненням», процес спостережуваних кольорів марковську властивість матиме.[6]

Застосуванням марковської властивості в узагальненому вигляді є обчислення Монте-Карло марковських ланцюгів у контексті баєсової статистики.

Remove ads

Див. також

Джерела

Remove ads

Примітки

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads