PROCESOS DE MARKOV DE TIEMPO CONTINUO

Documentos relacionados
CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

3. Ecuaciones Diferenciales Lineales Homogéneas de Orden Superior con Coeficientes Constantes. Ecuaciones Diferenciales de Segundo Orden

Introducción a la Teoría de la Información

Procesos estocásticos

Modelos Estocásticos I Tercer Examen Parcial Respuestas

UNIDAD DE APRENDIZAJE II

Conferencia clase. Al desacoplar las ecuaciones se tiene. Sistemas de ecuaciones diferenciales lineales usando álgebra lineal

CONCEPTOS BASICOS DE LA TRANSFORMADA DE LAPLACE LA TRANSFORMADA DE LAPLACE

Variables aleatorias continuas, TCL y Esperanza Condicional

ECUACIÓN DE CAUCHY-EULER 2013

Instituto de Matemática Aplicada del Litoral

Generación de variables aleatorias continuas Método de la transformada inversa

Preliminares Problemas de Valor Inicial Problemas de Contorno ECUACIONES DIFERENCIALES ORDINARIAS

Reacciones Químicas. (molaridad) pues una mol de sustancia química contiene el mismo número de moléculas.

Pruebas de Acceso a las Universidades de Castilla y León

Curso Propedéutico de Cálculo Sesión 3: Derivadas

TEOREMAS GENERALES DE LA DINÁMICA DEL PUNTO MATERIAL

Cuáles son las características aleatorias de la nueva variable?

Unidad 5 - Trabajo Práctico 5 Parte 1 Elementos de Matemática

SEPTIEMBRE Opción A

Derivadas Parciales (parte 2)

SESIÓN 9 APLICACIONES DE MÁXIMOS Y MÍNIMOS, DERIVACION DE FUNCIONES COMPUESTAS O REGLA DE LA CADENA

Regla de la Potencia para la Integración

TEMA 0. FUERZAS CONSERVATIVAS Y NO CONSERVATIVAS

SESIÓN 11 DERIVACIÓN DE FUNCIONES TRIGONOMETRICAS INVERSAS

Análisis Dinámico: Ecuaciones diferenciales

Variables aleatorias

1.1. Distribución exponencial. Definición y propiedades

Convolución: Un proceso natural en los sistemas lineales e invariantes en el tiempo.

2. Continuidad y derivabilidad. Aplicaciones

UNIDAD II. INTEGRAL DEFINIDA Y LOS MÉTODOS DE INTEGRACIÓN. Tema: TÉCNICAS DE INTEGRACIÓN

1 Ecuaciones diferenciales

MÉTODO DE VARIACIÓN DE PARÁMETROS

Tema 5 Algunas distribuciones importantes

TALLER 1 DE ALGEBRA LINEAL Y GEOMETRÍA INGENIERÍA AMBIENTAL - UNIVERSIDAD DE CÓRDOBA FACTORIZACIÓN LU Y CADENAS DE MARKOV

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico

Lección 3: Aproximación de funciones. por polinomios. Fórmula de Taylor para

Algebra lineal y conjuntos convexos

ECUACIONES POLINÓMICAS CON UNA INCÓGNITA

Introducción a Modelos de Recompensas en Sistemas semi-marko. aplicación a las Ciencias Actuariales

José Humberto Serrano Devia Página 1

DERIVADAS PARCIALES Y APLICACIONES

Probabilidad Condicional

Funciones elementales

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones

Teorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i :

Movimiento Browniano o proceso de Wiener

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Soluciones oficiales de los problemas de la Final de la XXI Olimpiada Nacional de Matemática 2009

Cálculo I (Grado en Ingeniería Informática) Problemas adicionales resueltos

Ecuaciones diferenciales Profesores: Eusebio Valero (grupos A y B) Bartolo Luque (grupos C y D)

Redes de Petri Estocásticas (II)

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo

Procesos estocásticos Cadenas de Márkov

SISTEMAS LINEALES DE ECUACIONES DIFERENCIALES

Mínimos Cuadrados. Departamento de Matemáticas, CCIR/ITESM. 30 de junio de 2011

Relaciones de recurrencia

ECUACIÓN DE OSCILACIONES. Tomado del texto de Ecuaciones Diferenciales de los Profesores. Norman Mercado. Luis Ignacio Ordoñéz

S = N λ = 5 5 = 1 hora.

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA

Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan).

Ecuaciones Diferenciales Ordinarias

Momento angular de una partícula. Momento angular de un sólido rígido

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

1. La Distribución Normal

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)

1.9 Sustituciones diversas 49

2 Métodos de solución de ED de primer orden

sobre un intervalo si para todo de se tiene que. Teorema 1 Sean y dos primitivas de la función en. Entonces,

DERIVACIÓN DE LAS FUNCIONES ELEMENTALES

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

Interrogación (25 Ptos.) Conteste verbalmente las siguientes preguntas :

Tema 7: Derivada de una función

Apéndice sobre ecuaciones diferenciales lineales

Modelos elección discreta y variable dependiente limitada

ITM, Institución universitaria. Guía de Laboratorio de Física Mecánica. Práctica 9: Dinámica del plano inclinado. Implementos

Inducción Matemática Conjuntos Funciones. Matemática Discreta. Agustín G. Bonifacio UNSL. Repaso de Inducción, Conjuntos y Funciones

Matemáticas. Si un error simple ha llevado a un problema más sencillo se disminuirá la puntuación.

3er Concurso Unversitario de Matemáticas Galois-Noether 2013 Segunda Etapa

s(t) = 5t 2 +15t + 135

Tema 8: Aplicaciones. Ecuaciones en. diferencias: modelos en tiempo discreto. 1 Modelo de crecimiento exponencial. 2 Sucesión de Fibonacci

Guía de Ejercicios: Funciones

Integral de Fourier y espectros continuos

(a) Un gas ideal. (b) Un fluido incompresible. (c) Un gas que obedece la ecuación virial truncada en el segundo término.

Breve sobre Kuhn-Tucker

Aplicando el Axioma del Supremo

Cadenas de Markov. José Antonio Camarena Ibarrola

Para las ecuaciones diferenciales ordinarias no lineales no existen métodos generales.

cadenas de Markov tienen la propiedad de que la probabilidad de que X n = j sólo depende

1. ECUACIONES DIFERENCIALES ORDINARIAS

COEFICIENTES INDETERMINADOS: MÉTODO DE SUPERPOSICIÓN *

INSTITUTO DE FÍSICA FACULTAD DE INGENIERÍA FÍSICA ESTADÍSTICA

Capitulo IV - Inecuaciones

CAPÍTULO 4. Sistemas de ecuaciones lineales de primer orden

Ecuaciones Diferenciales

Resolución de ecuaciones no lineales y Método de Bisección

MODELOS DE SERIES DE TIEMPO 1. Modelos capaces de predecir, interpretar y evaluar hipótesis con datos económicos y financieros.

1. Teoría de conjuntos

Si el producto de dos números es cero

Problemas de Espacios Vectoriales

Transcripción:

CHAPTER 3 PROCESOS DE MARKOV DE TIEMPO CONTINUO 3.1 Introducción En este capítulo consideramos el análogo en tiempo continuo de las Cadenas de Markov de tiempo discreto. Como en el caso de tiempo discreto, ellas están caracterizadas por la propiedad Markoviana de que dado el estado presente, el futuro es independiente del pasado. 3.2 Cadenas de Markov Tiempo Continuo Consideremos un proceso estocástico de tiempo continuo que toma valores en el conjunto de los enteros no negativos. En analogía con la definición de una cadena de Markov de tiempo discreto, dada en el capítulo anterior, decimos que el proceso es una cadena de Markov de tiempo continuo si para todo, y enteros no negativos En otras palabras, una cadena de Markov de tiempo continuo es un proceso estocástico que tiene la propiedad Markoviana de que la distribución condicional del estado futuro en el tiempo, dado el estado presente y todos los estados pasados depende solamente del Procesos Estocásticos, Primera Edición. By D. Rivas, R. Delgadillo Copyright c 2016 Universidad de Los Andes. 67

68 PROCESOS DE MARKOV DE TIEMPO CONTINUO estado presente y es independiente del pasado. Al igual que el caso discreto, se conocen como las probabilidades de transición. Si, además, es independiente de, entonces la cadena de Markov de tiempo continuo se dice tener probabilidades de transición estacionarias u homogéneas. Todas las cadenas de Markov que consideramos serán asumidas a tener probabilidades de transición estacionaria. Suponga que una cadena de Markov de tiempo continuo entra en el estado en algún tiempo, digamos en el tiempo 0, y suponga que el proceso no deja el estado (eso es no ocurre ninguna transición) durante las próximas unidades de tiempo, cuál es la probabilidad de que el proceso no deje el estado durante las siguientes unidades de tiempo?. responder esto note que como el proceso esta en el estado en el tiempo, se sigue, por la propiedad Markoviana, que la probabilidad de que permanezca en ese estado durante el intervalo es justo la probabilidad no condicional de que este permanezca en el estado para al menos unidades de tiempo. Es decir, si denotamos como la cantidad de tiempo que el proceso permanece en el estado antes de hacer una transición a un estado diferente, entonces para todo. Por lo tanto, la variable aleatoria continua, posee la propiedad de pérdida de memoria, y por lo que se ha visto en cursos de probabilidades solamente la distribución exponencial posee esta propiedad. Por lo tanto concluimos que, tiene distribución exponencial, con parámetro, el cual, por lo general, depende del estado. Además, la propiedad de Markov también implica que el próximo estado visitado, independiente de. Así, cuando el proceso deja el estado, este entra al estado con probabilidad (por definición), donde, es De hecho, lo anterior nos da una manera de construir una cadena de Markov de tiempo continuo. Ya que una cadena de Markov de tiempo continuo es un proceso estocástico que tiene las propiedades de que cada vez que entra en un estado (i) la cantidad de tiempo que permanece en ese estado antes de hacer una transición a un estado diferente se distribuye exponencial con parámetro, y (ii) cuando el proceso deja el estado, este entrará al estado llamemosla, donde con alguna probabilidad, El proceso es llamado una cadena de Markov de tiempo continuo, el cual se define formalmente como Definición 3.1 Sea un proceso estocástico de tiempo continuo cuyo espacio de estado es. Decimos que es una cadena de Markov de tiempo continuo si y.

CADENAS DE MARKOV TIEMPO CONTINUO 69 Nota: Por lo general, no es fácil calcular explicitamente. Más adelante veremos unos teorema que nos proveen unas ecuaciones diferenciales cuya solución son los. Un estado para el cual es llamado un estado instantáneo ya que cuando entra en el instantáneamente lo deja. Aunque tales estados son teóricamente posibles, asumiremos que para todo. (Si, entonces el estado es llamado absorbente ya que una vez entrado en el nunca se sale). Por lo tanto, para nuestros propósitos una cadena de Markov de tiempo continuo es un proceso estocástico que se mueve de estado a estado en concordancia con una cadena de Markov de tiempo discreto, pero de manera que la cantidad de tiempo que permanezca en cada estado, antes de proceder al próximo estado, se distribuye exponencial. Además, la cantidad de tiempo que el proceso permanece en el estado, y el próximo estado sea visitado, deben ser variables aleatorias independientes. Ya que si el próximo estado visitado fuese dependiente de, entonces la información en cuanto al tiempo que el proceso haya permanecido en el estado debe ser relevante para la predicción del próximo estado - y esto contradice el supuesto Markoviano. 3.2.1 Procesos de Nacimiento y Muerte El número de individuos de una determinada colectividad en un cierto momento constituye el rango de una variable aleatoria. La variación de dicho número se debe a dos causas; la primera de las cuales es que haya incorporación (nacimientos) de nuevos individuos a la colectividad y la segunda a que haya desincorporación de individuos (muerte). Por tanto, este numero representa un proceso estocástico de parámetro continuo (momentos diferentes de tiempo en que se observa o se considera el número de individuos que componen la colectividad) y de espacio de estado discreto (número de individuos que integran dicha colectividad). Representando por los diferentes estados del proceso se tiene que a un determinado estado,, se puede llegar solo desde dos estados inmediatos,, y, ; esto es, para un intervalo de tiempo pequeño, solo se produce una incorporación o una desincorporación o ninguna de ambas. Si se representa por el promedio de individuos que se incorporan al sistema en la unidad de tiempo cuando éste está en el estado ; y,. por el promedio de desincorporación en la misma situación anterior, se tiene que por otro lado es la probabilidad de que estando en el estado en el momento, este en el estado en el momento (Haya una desincorporación). Representando por la probabilidad de que el proceso esté en el estado en el momento, se tiene que esta probabilidad es igual a la probabilidad de que esté en dicho estado en el momento y no haya cambios en el intervalo mas la probabilidad de que esté en el momento en el estado y haya una incorporación durante el intervalo, mas la probabilidad de que esté en el estado en el momento y haya una desincorporación durante dicho intervalo.

70 PROCESOS DE MARKOV DE TIEMPO CONTINUO Reescribiendo en la notación usada Dividiendo por Aplicando se tiene (3.1) La ecuación (3.1) es una ecuación diferencial cuya integración debe hacerse por recurrencia. Supongamos que queremos hallar, es decir la probabilidad de que el proceso este en el estado en el momento. En este caso se tiene que dicha probabilidad es igual a la probabilidad de que este en dicho estado en y no hayan cambios durante el intervalo, mas la probabilidad de que estando en el en el momento se produzca una desincorporación en el intervalo.

CADENAS DE MARKOV TIEMPO CONTINUO 71 Entonces Dividiendo por Aplicando limite (3.2) Por lo tanto, el proceso queda caracterizado por las ecuaciones diferenciales La integración de estas dos ecuaciones diferenciales no es sencilla para expresiones diferentes de y. A continuación se obtienen expresiones diferentes de (3.1) y (3.2) cuya integración resulta más sencilla. 3.2.2 Proceso de Nacimiento y Muerte cuando y En el proceso de nacimiento y muerte no es una restricción exigente al considerar que, ya que representa la integración al colectivo de, a lo sumo, un individuo en el intervalo. Por tanto, para un colectivo de individuos en un momento determinado, se puede elegir a con esta condición. En lo que respecta a la desincorporación la relación, donde es una constante, parece razonable, ya que suponer a constante haría que el colectivo creciera indefinidamente. Por tanto, considerando estas dos relaciones en (3.1) y (3.2) se tiene (3.3) (3.4) La integración de estas 2 ecuaciones diferenciales es mas sencilla que en el caso general. la solución en este caso vamos a usar la función generatriz de probabilidad del proceso, esto es,

72 PROCESOS DE MARKOV DE TIEMPO CONTINUO Derivando con respecto a y se tiene De la ecuación (3.3) se tiene que De la ecuación (3.3)se tiene que. Multiplicando cada ecuación por. se obtiene Sumando

CADENAS DE MARKOV TIEMPO CONTINUO 73 Por lo tanto (3.5) Como, y Entonces Así La cual es una ecuación diferencial en derivadas parciales, lineal completa. El sistema adjunto de esta ecuación es De este sistema se obtienen las ecuaciones diferenciales (3.6) y (3.7) Integrando la ecuación (3.6) se obtiene Por lo tanto Integrando la ecuación (3.7) se obtiene (3.8) Por lo tanto hallar los valores de y consideramos las siguientes condiciones iniciales (3.9) Recordando que

74 PROCESOS DE MARKOV DE TIEMPO CONTINUO sustituyendo se tiene que y las ecuaciones (3.8) y (3.9) quedan como (3.10) y (3.11) Despejando de la ecuación (3.10) se tiene que (3.12) Sustituyendo (3.12) en (3.11) se obtiene a en función de (3.13) Ahora bien, sustituyendo en la ecuación (3.9) se tiene que (3.14) y como de la ecuación (3.8), entonces (3.15) Simplificando Recordemos que la función generatriz de la distribución Poisson con parámetro es (3.16) Por lo tanto, el proceso de nacimiento y muerte es un proceso Poisson con parámetro, es decir Si consideramos el caso cuando es decir un proceso Poisson con parámetro.

CADENAS DE MARKOV TIEMPO CONTINUO 75 3.2.3 Proceso de Nacimiento y Muerte en Regimen Permanente En el proceso de Nacimiento y muerte puede considerarse el supuesto de que dicho proceso no depende de, esto es, la probabilidad de que el proceso este en un determinado estado en un momento cualquiera no depende del tiempo, es decir, del momento, por lo que solamente interviene el estado del proceso. En este caso se dice que el proceso está en regimen permanente y se puede escribir que Bajo este supuesto las ecuaciones diferenciales (3.3) y (3.4) (3.17) (3.18) De las ecuaciones (3.17) y (3.18) tenemos el siguiente sistema de ecuaciones (3.19) (3.20) (3.21) (3.22). (3.23) Resolviendo el sistema de ecuaciones se tiene que. como entonces, así, ya que se tiene que lo cual implica que Por lo tanto Así, el proceso de nacimiento y muerte en regimen permanente (independiente del tiempo) es un proceso Poisson con parámetro.

76 PROCESOS DE MARKOV DE TIEMPO CONTINUO 3.2.4 Función Generatriz de Probabilidad Definición 3.2 Sea una variable aleatoria que asume valores 0,1,2,...; considere Definamos la función generatriz asociada a como Si entonces Existen 5 principales usos de las funciones generatrices: 1. Generar funciones de ayuda en el cálculo de la función de masa de probabilidad de una suma de variables aleatorias enteras no negativas independientes. 2. Generar funciones de ayuda en el cálculo de los momentos. 3. Usando el teorema de continuidad, generar funciones de ayuda en el calculo de distribuciones límites. 4. Generar funciones de ayuda en la solución de ecuaciones diferenciales o recursiones. La técnica de la función generatriz convierte el problema de resolver una recursión en un problema de resolver una ecuación diferencial. 5. Generar funciones de ayuda en la solución de sistemas de ecuaciones diferenciales. Es aplicado frecuentemente en la teoría de cadenas de Markov de tiempo continuo. EJEMPLO 3.1 Sea una variable aleatoria con distribución. La función generatriz está dada por EJEMPLO 3.2

CADENAS DE MARKOV TIEMPO CONTINUO 77 Sea una variable aleatoria con distribución. La función generatriz está dada por