Cadena de Márkov

Na teoría de la probabilidá, conozse como cadena de Márkov o modelu de Márkov a un tipu especial de procesu estocástico discretu nel que la probabilidá de qu'asoceda un eventu depende solamente del eventu darréu anterior. Esta carauterística de falta de memoria recibe'l nome de propiedá de Markov.

Cadena simple biestable de Markov.

Recibe'l so nome del matemáticu rusu Andréi Márkov (1856-1922), que lo introdució en 1907.[1]

Estos modelos estadísticos cunten con un gran númberu d'aplicaciones reales.

Definición formalEditar

En matemática defínese como un procesu estocástico discretu que cumple cola propiedá de Márkov, esto ye, si conoz la hestoria del sistema hasta'l so intre actual, el so estáu presente resume tola información relevante pa describir en probabilidá'l so estáu futuru.

Una cadena de Márkov ye una secuencia X1, X2, X3,... de variables aleatories. El dominiu d'estes variables ye llamáu espaciu tao; el valor de Xn ye l'estáu del procesu nel tiempu n. Si la distribución de probabilidá condicional de Xn+1 n'estaos pasaos ye una función de Xn por sigo sola, entós:

 

Onde xi ye l'estáu del procesu nel intre i. La identidá amosada ye la propiedá de Márkov.

Notación útilEditar

Cadenes homoxénees y non homoxéneesEditar

  • Una cadena de Márkov dizse homoxénea si la probabilidá de dir del estáu i al estáu j nun pasu nun depende del tiempu nel que s'atopa la cadena, esto ye:
  pa tou n y pa cualesquier i, j.

Si pa dalguna pareya d'estaos y pa dalgún tiempu n la propiedá antes mentada nun se cumple vamos dicir que la cadena de Márkov ye non homoxénea.

Probabilidaes de transición y matriz de transiciónEditar

  • La probabilidá de dir del estáu i al estáu j en n unidaes de tiempu ye
 ,

na probabilidá de transición nun pasu omítese'l superíndice de cuenta que queda

 
  • Un fechu importante ye que les probabilidaes de transición en n pasos satisfaen la ecuación de Chapman-Kolmogórov, esto ye, pa cualesquier k tal que 0 < k < n cumplir que
 

onde Y denota l'espaciu d'estaos.

  • Cuando la cadena de Márkov ye homoxénea, munches de les sos propiedaes útiles pueden llograse al traviés de la so matriz de transición, definida entrada a entrada como  

esto ye, la entrada i, j correspuende a la probabilidá de dir del estáu i a j nun pasu.

De la mesma puede llograse la matriz de transición en n pasos como:

 , onde  .

Vector de probabilidá invarianteEditar

  • Defínese la distribución inicial  .
  • Vamos Dicir qu'un vector de probabilidá (finito o infinitu numerable) ye invariante pa una cadena de Márkov si
 

onde P denota la matriz de transición de la cadena de Márkov. Al vector de probabilidá invariante tamién se-y llama distribución estacionaria o distribución d'equilibriu.

Clases de comunicaciónEditar

  • Pa dos estaos i,j nel espaciu d'estaos Y, vamos dicir que de i aportar a j (y se denotará  ) si
  pa dalgún n,

si   y   entós vamos dicir que i comunica con j y se denotará i↔j.

La propiedá "↔" ye una rellación d'equivalencia. Esta rellación induz una partición nel espaciu d'estaos. A estes clases d'equivalencia vamos llamar clases de comunicación.

Dau un estáu x, denotaremos a la so clase de comunicación como C(x).

  • Vamos Dicir qu'un subconxuntu C del espaciu d'estaos (al que denotaremos Y) ye zarráu si nengún estáu de Y-C pue ser aportáu dende un estáu de C, esto ye, si   pa tou x∈C, pa tou y∈Y-C y pa tou natural m>0.

Tiempos d'entradaEditar

Si  , definimos el primera tiempu d'entrada a C como la variable aleatoria


 

esto ye,   denota la primer vegada que la cadena entra al conxuntu d'estaos C.

RecurrenciaEditar

Nuna cadena de Márkov con espaciu d'estaos Y, si xY defínese   y vamos dicir que:

  • x ye tao recurrente si  .
  • x ye transitoriu si  
  • x ye absorbente si  
  • Una clase de comunicación ye clase recurrente si tolos sos estaos son recurrentes.

Sía  , si x∈Yvamos dicir que:

  • x ye cero-recurrente si  
  • x ye positivu-recurrente si  

El real   interprétase como'l tiempu promediu de recurrencia.

PeriodicidadEditar

  • El periodu d'un estáu x∈Y defínese como:
 

onde   denota el máximu común divisor.

  • Si d(x)=1 vamos dicir que x ye un estáu aperiódico.
  • Una cadena de Márkov dizse aperiódica si tolos sos estaos son aperiódicos.

Tipos de cadenes de MárkovEditar

Cadenes errátiquesEditar

Una cadena de Márkov dizse irreducible si cumple cualesquier de les siguientes condiciones (equivalentes ente sigo):

  1. Dende cualquier estáu de Y puede aportase a cualesquier otru.
  2. Tolos estaos comunicar ente sigo.
  3. C(x)=Y pa dalgún x∈Y.
  4. C(x)=Y pa tou x∈Y.
  5. L'únicu conxuntu zarráu ye'l total.

La cadena de Ehrenfest o la caminada aleatoria ensin barreres absorbentes son exemplos de cadenes de Márkov irreducibles.

Cadenes positivu-recurrentesEditar

Una cadena de Márkov dizse positivu-recurrente si tolos sos estaos son positivu-recurrentes. Si la cadena ye amás irreducible ye posible demostrar qu'esiste un únicu vector de probabilidá invariante y ta dau por:

 

Cadenes regularesEditar

Una cadena de Márkov dizse regular (tamién primitiva o ergódica) si esiste dalguna potencia positiva de la matriz de transición que les sos entraes sían toes puramente mayores que cero.

Cuando l'espaciu d'estaos Y ye finito, si P denota la matriz de transición de la cadena tiense que:

 

onde W ye una matriz con tolos sos renglones iguales a un mesmu vector de probabilidá w, que resulta ser el vector de probabilidá invariante de la cadena. Nel casu de cadenes regulares, ésti vector invariante ye únicu.

Cadenes absorbentesEditar

Una cadena de Márkov con espaciu d'estaos finito dizse absorbente si cumplir los dos condiciones siguientes:

  1. La cadena tien siquier un estáu absorbente.
  2. De cualesquier estáu non absorbente aportar a dalgún estáu absorbente.

Si denotamos como A al conxuntu de tolos estaos absorbentes y al so complementu como D, tenemos les siguientes resultaos:

  • El so matriz de transición siempres puede llevase a una de la forma
 .


onde la submatriz Q correspuende a los estaos del conxuntu D, I ye la matriz identidá, 0 ye la matriz nula y R dalguna submatriz.

  •  , esto ye, nun importa onde s'atope la cadena, eventualmente va terminar nun estáu absorbente.

Cadenes de Márkov en tiempu continuuEditar

Si en llugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado nel conxuntu   de númberos naturales, considérense les variables aleatories Xt con t que varia nun intervalu continuu del conxuntu   de númberos reales, vamos tener una cadena en tiempu continuu. Pa esti tipu de cadenes en tiempu continuu la propiedá de Márkov espresar de la siguiente manera:


  tal que  

Pa una cadena de Márkov continua con un númberu finito d'estaos puede definise una matriz estocástica dada por:


 

La cadena denominar homoxénea si  . Pa una cadena de Márkov en tiempu continuu homoxénea y con un númberu finito d'estaos puede definise'l llamáu xenerador infinitesimal como:[2]


 

Y puede demostrase que la matriz estocástica vien dada por:


 

AplicacionesEditar

MeteorologíaEditar

Si consideramos el tiempu atmosféricu d'una rexón al traviés de distintos díes, ye plausible asumir que l'estáu actual namái depende del últimu estáu y non de tola hestoria en sí, de cuenta que pueden usase cadenes de Márkov pa formular modelos climatolóxicos básicos. Por casu, desenvolviéronse modelos de recurrencia de les agües basaos en cadenes de Márkov.[3]

Modelos epidemiolóxicosEditar

Una importante aplicación de les cadenes de Márkov atopar nel procesu Galton-Watson. Ésti ye un procesu de ramificación que puede usase, ente otres coses, pa modelar el desenvolvimientu d'una epidemia (vease modelaje matemáticu d'epidemies).

InternetEditar

El pagerank d'una páxina web (usáu por Google nos sos motores de busca) defínese al traviés d'una cadena de Márkov, onde la posición que va tener una páxina nel buscador va ser determinada pol so pesu na distribución estacionaria de la cadena.

SimulaciónEditar

Les cadenes de Márkov son utilizaes p'aprovir una solución analítica a ciertos problemes de simulación, por casu en teoría de coles el Modelu M/M/1[4] ye de fechu un modelu de cadenes de Márkov.

Xuegos d'azarEditar

Son munchos los xuegos d'azar que pueden modelase al traviés d'una cadena de Márkov. El modelu de la ruina del xugador, (Gambler's ruin), qu'establez la probabilidá de qu'una persona qu'apuesta nun xuegu d'azar finalmente termine ensin dineru, ye una de les aplicaciones de les cadenes de Márkov nesti rubro.

Economía y financesEditar

Les cadenes de Márkov pueden utilizase en modelos simples de valuación d'opciones pa determinar cuándo esiste oportunidá d'arbitraxe, según nel modelu de colapsos d'una bolsa de valores o pa determinar la volatilidá de los precios. Nos negocios, les cadenes de Márkov utilizáronse p'analizar el patrones de compra de los deldores morosos, pa entamar les necesidaes d'alministración de personal personal y p'analizar el reemplazu d'equipu.

XenéticaEditar

Empléguense cadenes de Márkov en teoría de xenética de poblaciones, pa describir el cambéu de frecuencies xéniques nuna población pequeña con xeneraciones discretes, sometida a deriva xenética. Foi emplegada na construcción del modelu d'espardimientu de Motō Kimura.

MúsicaEditar

Diversos algoritmos de composición musical usen cadenes de Márkov, por casu el software Csound o Max

=== Operaciones empleguen cadenes de Márkov n'inventarios, caltenimientu, fluxu de procesu

Redes NeuronalesEditar

Utilizar nes máquines de Boltzmann (redes neuronales)

ReferenciesEditar

  1. Basharin, Gely P. (2004). «The Life and Work of A. A. Markov» (n'inglés). Linear Algebra and its Applications 386:  pp. 3-26. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.4.4887. Consultáu 'l 31 de marzu de 2010. 
  2. Masaki Kijima, 1997, p. 175
  3. R. Gabriel & J. Neumann (2006): A Markov chain model for daily rainfall occurrence at Tel Aviv
  4. Masaki Kijima, 1997, pp. 287-290.

BibliografíaEditar

  • A.A. Márkov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-yá seriya, tom 15, pp. 135–156, 1906.
  • A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
  • Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591–600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
  • Leo Breiman. Probability. Orixinal edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)
  • J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. online: [1] . Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie. online: https://web.archive.org/web/20100619011046/https://netfiles.uiuc.edu/meyn/www/spm_files/CTCN/CTCN.html
  • Booth, Taylor L. (1967). Sequential Machines and Automata Theory, 1st, Nuevu York: John Wiley and Sons, Inc.. Library of Congress Card Catalog Number 67-25924. Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G. (1959). Finite Mathematical Structures, 1st, Englewood Cliffs, N.J.: Prentice-Hall, Inc.. Library of Congress Card Catalog Number 59-12841. Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
  • Kijima, Masaaki (1997). Markov Processes for Stochastic Modeling, 1st, Cambridge: Chapman & Hall. ISBN 0 412 60660 7.
  • Y. Nummelin. "Xeneral irreducible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X

Enllaces esternosEditar