Récurrence et transience d'une chaîne de Markov
De Wikipedia, l'encyclopédie encyclopedia
Un état d'une chaîne de Markov est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l'état est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne par exemple quand la chaîne est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente.
Cet article ne cite pas suffisamment ses sources ().
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».
En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?