Markov zinciri

Matematikte, Markov Zinciri (Andrey Markov'un adına atfen), Markov özelliğine sahip bir stokastik süreçtir. Markov özelliğine sahip olmak, mevcut durum verildiğinde, gelecek durumların geçmiş durumlardan bağımsız olması anlamına gelir. Bir başka deyişle, mevcut durumun açıklaması, sürecin gelecekteki evrimini etkileyecebilecek tüm bilgiyi kapsar. Gelecek durumlara belirli bir şekilde değil, olasılıksal bir süreçle ulaşılacaktır.

Her bir anda sistem belirli bir olasılık dağılımına bağlı olarak kendi durumunundan başka bir duruma geçebilir yahut aynı durumda kalabilir. Durumda olan değişiklikler geçiş olarak bilinir ve çeşitli durum değişmeleriyle ilişkili olasılıklar da geçiş olasılıkları olarak adlandırılır.

Markov zincirine bir örnek basit rastgele yürüyüş olur. Basit rastgele yürüyüş için durum uzayı bir gösterim üstünde bir grup köşeler halindedir. Geçiş aşamaları ise (yürüyüşün geçmişinde ne olmuş olursa olsun) cari köşeden herhangi bir komşu köşeye gitmeyi kapsar. Cari köşeden herhangi bir komşu köşeye gitme olasılığı hep aynı olup birbirine eşittir.


Tanımı

Markov zincir Markov özelliğini taşıyan, yani mevcut durum verilmiş olursa geçmiş ve gelecek durumların bağımsız olduğu, ardıardına gelen, X1, X2, X3, ... ile ifade edilen, bir seri rassal değişkendir. Matematiksel biçimle

Xi'in mümkün değerleri, S olarak ifade edilen ve zincirin durum uzayı adı verilen sayılabilir bir set oluşturur.

Çok kere Markov zincirleri bir yönlendirilmiş gösterim ile tanımlanmaktadır ve bu gösterimde kenar doğrular bir durumdan diğer bir duruma geçiş olasılıkları ile tanıtılmaktadır.


Çeşitlemeleri

Sürekli-zaman Markov sürecinin sürekli bir endeksi bulunur.

Zaman içinde homojen Markov zincirleri zamana göre homojen olan geçiş olasılıkları bulunan Markov zincirleridir ve tüm n değerleri için

olan süreçlerdir.

m sonlu bir sayı ise, bir m dereceli bir Markov zinciri (yani m bellekli bir Markov zinciri) için tum n değerleri için şu ifadeler verilebilir:

'Klasik' Markov özelliği olan (Xn)den yeni bir (Yn) zincirinin şöyle kurulması mümkündür: Yn sıralamalı m-boyutlu X değerlerinden şöyle kurulsun:

Yn = (Xn, Xn-1, ..., Xn-m+1)

O zaman Yn, durum uzayı Sm olan ve klasik Markov özelliği bulunan bir Markov zinciri olur.

Markov zincirlerinin özellikleri

Tekrarlama

Eğer i durumdan başladığımız bilindiği halde, i durumuna hiçbir zaman dönme imkânı yaratmayan bir sıfıra eşit olamayan olasılık bulunuyorsa i durumu geçiş durum olarak nitelendirilir. Daha matematik biçimle ve notasyonla bir rassal değişken olan Ti i durumuna ilk geri dönüş zamanı (vurma zamanı') olsun; yani

Bu halde i durumu geçişli olması için ancak ve ancak

olmalıdır. Eğer bir durum i geçişli değilse (yani 1 olasılıkla bir sonlu olan vurma zamanına sahipse), o halde i durumu yinelenen veya ısrarlı durum olarak adlandırılır. Vurma zamanı sonlu olmakla beraber bir sonlu beklenen değeri bulunması gerekmez. Mi beklenen geri dönüş zamanı, yani

olsun. O halde eğer Mi sonlu ise i durumu da pozitif yinelenen olur; aksi halde i durumu sıfır yinelenen olacaktır; bu durumlara aynı sırayla sıfır olmayan ısrarlı veya sıfır ısrarlı durum adları da verilir.

Bir durumun yinelenen olması ancak ve sadece ancak

ifadesi gerçekse ortaya çıkacağı ispatlanamıştır.

Eger durum i yi girdikten sonra hiçbir zaman o durumdan çıkmak mümkün değilse, i durumu yutan durum olarak adlandırılır. Bu halde i durumu yutan durum olaması için ancak ve sadece ancak şu koşulu sağlaması gerekir;

and for

Ergodiklik

P geçiş matrisinde tüm durumlar birbirleri arasında geçiş sağlayabiliyorsa bu zincire ergodik markov zinciri denir.

0 1 0 0
0 0 1 0
0 0 0 1
1 0 0 0

üstteki P matrisi ergodik bir markov zinciridir.

0 1 0 0
0 0 1 0
0 1 0 0
1 0 0 0

üstteki P matrisi ise ergodik bir markov zinciri değildir. Sebebi ise 4. duruma hiçbir şekilde varılamamaktadır.

Uygulamalar

İnternet uygulamaları

Google'in kullandığı internet sayfalarının PageRank'i Markov zinciri ile tanımlanmaktadır.[1] Markov zincirinde durağan dağılımda tüm bilinen internet sayfaları arasından sayfasında bulunma olasılığıdır. Eğer bilinen internet sayfaları ise ve sayfası bağlantısına sahip ise, o zaman bağlantılı olduğu tüm sayfalar için ve bağlantısı olmadığı tüm sayfalar için geçiş olasılığına sahiptir. parametresi yaklaşık 0.15 olarak alınmıştır.

Markov modelleri aynı zamanda kullanıcıların internet gezinti davranışlarını analiz etmek için de kullanılmıştır. Bir kullanıcının bir internet sayfasından web bağlantısı ile geçişi, birincil ya da ikincil Markov modelleri ile modellenebilir ve gelecekteki hareketleri öngörmede ve dolayısıyla internet sayfasını kullanıcı için kişiselleştirme de kullanılabilir.

Ayrıca bakınız

  • Gizli Markov modeli
  • Markov zincirleri için örnekler
  • Markov süreci
  • Markov zinciri ile Monte Karlo
  • Yarı-Markov süreci
  • Değişken-dereceli Markov model
  • Markov karar süreci
  • Sonlu tipin kayması
  • Faz-tipi dağılım
  • Zaman karışımlı Markov zincir
  • Kuantum Markov zinciri
  • Markov şebekeleri
  • İnanç yayılması
  • Faktör gösterimi
  • Yenileme dönem yoğunluk entropisi
  • Sırasal analiz

Kaynakça

  • A.A. Markov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom 15, pp 135–156, 1906.
  • A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". Yeni basım Appendiks B: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
  • Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591-600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
  • Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)
  • J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. online: https://web.archive.org/web/20071012194420/http://decision.csl.uiuc.edu/~meyn/pages/book.html . Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 9780521884419. Appendix contains abridged Meyn & Tweedie. online: https://web.archive.org/web/20080513165615/http://decision.csl.uiuc.edu/~meyn/pages/CTCN/CTCN.html
  • Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st bas.). New York: John Wiley and Sons, Inc. Library of Congress Card Catalog Number 67-25924. Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G.; Mirkil, Hazleton; Snell, J. Laurie; Thompson, Gerald L. (1959). Finite Mathematical Structures (1st bas.). Englewood Cliffs, N.J.: Prentice-Hall, Inc. Library of Congress Card Catalog Number 59-12841. Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.

Dış bağlantılar

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.