Cadenas de Markov.
|
|
|
- Rosa María Giménez Méndez
- hace 8 años
- Vistas:
Transcripción
1 Cadenas de Markov
2 Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estado. Cadenas de Markov: conjunto de herramientas para analizar procesos estocásticos. Una Cadena de Markov representa un sistema que varía su estado a lo largo del tiempo, siendo cada cambio una transición del sistema. Aunque los cambios no están predeterminados, las probabilidades del próximo estado en función de del estado anterior son conocidas. Las probabilidades son constantes a lo largo del tiempo, el sistema es homogéneo.
3 Elementos de una Cadena de Markov Para definirla es necesario determinar: El conjunto de estados del sistema La definición de transición Una ley de probabilidad condicional, que defina la probabilidad como del nuevo estado en función de los anteriores. Los estados son una caracterización de un sistema en un instante dado. El estado de un sistema en un instante t es una variable cuyos valores sólo pueden pertenecer al conjunto de estados del sistema. El sistema modelado por la cadena es una variable que cambia de valor en el tiempo: transición.
4 El estado del sistema en el tiempo t+1 dependerá solo del estado del sistema en el tiempo t Es una colección indexada de varias x t, donde t denota intervalos de tiempo temporales significativos para el sistema bajo estudio. Los valores de x se toman de un conjunto de categorías o estados, mutuamente excluyentes de las que se conoce la probabilidad asociada y no la certeza del estado, tal que: Pr X x X X x x X x X x t t 1 1 t 1 t t 1 t 1 1 Pr t t
5 Probabilidad de transición Sea Pr[X t+1 =a X t =b]; la probabilidad de que el proceso, estando en el estado a en el tiempo t, pase al estado b en el instante siguiente t+1 Las probabilidades de transición son independientes del tiempo t, tal que: Pr X t 1 b X t a pab Estas son conocidas como cadenas homogéneas de orden 1 p 12 p 45 p 23 X 1 X 2 X 3 X 4 X 5 p 34
6 Matrices de transición P Es una matriz cuadrada de orden n, donde n es el número de estados de la cadena. Debido a que el sistema evoluciona de cualquier estado i a j, en cualquier tiempo t, entonces: Para todo p ij 0 por definición.
7 Probabilidades de transición para k pasos Ecuaciones de Chapman-Kolmogorov Al ser las probabilidades de transición estables en el tiempo, se puede conocer las propiedades después de k pasos: Esto es, la probabilidad de que el proceso se encuentre en estado j si k etapas antes se encontraba en el estado i. Si se conoce p ij, es posible calcular las p ij (k) tal que: Al ser P el conjunto de probabilidades de transición, entonces: P (k) = P.P k-1 = P k Siendo P 1 la probabilidad de una transición y P 0 = I
8 Ejemplo: P = Llueva No llueva Llueva 40% 60% No llueva 20% 80% Llueve No llueve 0.2 Proceso de Markov: definido por el gráfico (FSM) (FSM: Finite Stochastic Machine) Cadena de Markov: cualquier recorrido aleatorio en el FSM
9 Ejemplo Si hoy llovió, cuál es la probabilidad de que no llueva en dos días? P(Llueva No llueva) = P(Llueva Llueva No llueva) + P(Llueva No Llueva No llueva); P(No llueva/llueva dos días antes) = P(No llueva/(llueva Llueva))+P(No llueva(llueva No llueva) = 0.4* *0.8 = 0.72 o 72% Llueva No llueva Llueva No llueva Llueva 40% 60% No llueva 20% 80% + Llueva 40% 60% No llueva 20% 80%
10 Ejemplo. P = Llueva No llueva Llueva 40% 60% No llueva 20% 80% Primer día Segundo día Hoy Llueve Llueve Llueve 0.4*0.4 Llueve No llueve Llueve 0.6*0.2 Llueve Llueve No llueve 0.4*0.6 Llueve No llueve No llueve 0.6*0.8 No llueve Llueve Llueve 0.2*0.4 No llueve No llueve Llueve 0.8*0.2 No llueve Llueve No llueve 0.2*0.6 No llueve No llueve No llueve 0.8*
11 Ejemplo. Para los posibles escenarios en dos días (k=2): t + 2 t Llueva No llueva Llueva 28% 72% No llueva 24% 76% Puede demostrarse que P (2) = P 2
12 Propiedades a largo plazo de las Cadenas de Markov En general, cuando k, la probabilidad de estar en un estado j es independiente del estado inicial y se conoce como probabilidad estacionaria o de estado estable j Estas probabilidades se mantienen constantes después de dichas transiciones. Las cadenas de Markov con esta característica se conocen como cadenas ergódicas y su matriz de transición será
13 Volviendo al ejemplo de la lluvia P 1 = Llueva No llueva Llueva 40% 60% No llueva 20% 80% P 4 = Llueva No llueva Llueva 25.1% 74.9% No llueva 25.0% 75.0% P 16 = Llueva No llueva Llueva 25.0% 75.0% No llueva 25.0% 75.0% Llueva No llueva P 8 = Llueva 25.0% 75.0% No llueva 25.0% 75.0%
14 Propiedades a largo plazo En general, para una cadena ergódica existe un límite: tal que el mismo existe es independiente de i. Además donde j satisface las siguientes ecuaciones de estado estable:
15 Algunos aspectos importantes j define la probabilidad de encontrar el sistema en el estado j, después de un gran número de transiciones y tiende a ser constante e independiente del estado inicial. Aunque la probabilidad j define la probabilidad de estar en el estado j, la probabilidad de la transición entre i y j, en cualquier etapa k, será p ij Las ecuaciones de estado estable estará definido por n+1 ecuaciones y n incógnitas, por lo que siempre habrá una ecuación redundante que puede eliminarse, con excepción de la expresión
16 Ejemplo de la lluvia P = P * = Llueva No llueva Llueva 40% 60% No llueva 20% 80% Llueva No llueva Llueva 1 2 No llueva 1 2 P * =P * P, por las ecuaciones de Chapman-Kolmogorov, donde se tiene que P *-1 =P * en el estado estable y además la ecuación
17 [P * ] [P * ] [P] = * + = 1 0.4* * 2 = 1 0.6* * 2 = 2 Resolviendo: 1 = = = 1 y P * = Llueva No llueva Llueva 25.0% 75.0% No llueva 25.0% 75.0% Esta matriz estacionaria coincide con P (k), para k
18 El caso cuando hay probabilidades iniciales Sea a t = (a 0, a 1,...,a m ) la distribución en t 0 de la Cadena de Markov (con m estados) La probabilidad de que el sistema se encuentre en el estado j después de n etapas estará dada por: P{X n = j}= elemento j del vector a t P n En el largo plazo: P{X n = j}= a t P *
19 El ejemplo de la lluvia, nuevamente Llueva No llueva P = Llueva 40% 60% No llueva 20% 80% Suponga que la probabilidad de que hoy llueva es 65%, cuál será la probabilidad de que no llueva dentro de dos días? En este caso, a t = (65%, 35%) Resolviendo para a t P 2 =(26.6%, 73.4%) P(No llueva dentro de dos días): 73.4%
20 Cuando hay costos asociados Sea c t = (c 0, c 1,...,c m ) la distribución de costos asociados a la Cadena de Markov (con m estados) El costo de que el sistema se encuentre en el estado j después de n etapas estará dada por: E(c)=a t P (n) c t Esto resultará en el costo esperado del sistema en la etapa n. En caso de no tener definida la probabilidad inicial a, se supone igual para cada estado j.
21 Regresando al ejemplo de la lluvia Llueva No llueva P = Llueva 40% 60% No llueva 20% 80% Suponga que el valor de que llueva es de -20 y que no llueva es de 10. La probabilidad inicial de lluvia se mantiene en 65% Cuánto será el valor esperado después de dos días para los diferentes estados? Resolviendo para E(c)=a t P (n) c t = 2.02 unidades monetarias.
22 Clasificación de los estados de una Cadena de Markov Existen ciertas propiedades de los estados que son importantes en el comportamiento de las Cadenas de Markov. El estado j se dice que es accesible desde el estado i si p ij (n) > 0 en cualquier etapa n. Esto quiere decir que el sistema puede entrar al estado j eventualmente, si está en el estado i. Si el estado j es accesible desde el estado i, y el estado i, es accesible desde el estado j, se dice entonces que i y j pueden comunicarse.
23 En general 1. Cada estado se comunica con si mismo ya que p ii (0) =P(x 0 = i x 0 = i) = 1 Si el estado i se comunica con el estado j, entonces j se couminca con i. 3. Si el estado i se comunica con j, y j se comunica con k, entonces el estado i se comunica con k. Como resultado de lo anterior, los estados pueden ser divididos en dos o más clases de tal manera que los estados que se comunican entre ellos puedan estar en una sola clase. Si el estado tiene una sola clase se dice que es irreducible.
24 Clasificación de los estados de una Cadena de Markov Se dice que un estado es transciente si una vez en ese estado, el sistema no retorna a dicho estado otra vez. En otras palabras, el estado i es transciente si existe un estado j que es accesible desde i pero no lo contrario desde el estado j. Un estado es recurrente is, una vez en ese estado, el sistema volverá a ese estado otra vez en algún momento. Un estado es absorvente si una vez en él, el sistema nuncará lo dejará. Así, en un estado absorvente p ii = 1 El período de un estado i se define como un entero t (t>1), tal que p ii (n) = 0 para cualquier valor de n diferente a t, 2t, 3t,, siendo t el entero mayor de dicha propiedad.
25 En el caso de la lluvia Llueve No llueve 0.2 El sistema es accesible en cada estado y se pueden comunicar.
26 Estados absorbentes Como se dijo, un estado k se llama absorbente si p kk = 1. Así, el estado k permanence así por siempre. Si el estado k es un estado absorvente y el sistema inició en estado i, la probabilidad de ir en algún momento al estado k se conoce como probabilidad de absorción al estado k, siendo que el sistema inició en el estado I y se denota por f ik. Cuando hay dos o más estados absorventes en una cadena de Markov, el sistema será absorvido por uno de esos estados. Es necesario conocer las probabilidades de absorción resolviendo el sistema de ecuaciones dado por: Sujeto a f kk = 1, y f ik = M p ij f jk para todo j = 1, 2,, M f ik = 0, para i k, y el estado i sea recurrente
27 Otro ejemplo Considere una tienda por departamento que clasifica el balance de las cuentas de sus clientes en totalmente pagado (estado 0), 1 a 30 días de atraso (estado 1), 31 a 60 días (estado 2) o cuenta mala (estado 3). Los estados de cuenta se verifican cada mes para ver la situación de cada cliente. En general el crédito no se extiende y se espera que los clientes paguen dentro de los primeros 30 días. Muchas veces, los clientes pagan solamente parte de su cuenta. Si esto ocurre cuando el balance está dentro de los primeros treinta días, entonces la tienda lo mantiene dentro del estado uno. Si el pago ocurre cuando el cliente estaba en el estado dos, entonces cambia del estado 1 al estado 2. Los clientes con más de 60 días se consideran dentro de las cuentas malas y se envían a una agencia de cobros.
28 Otro ejemplo Aunque cada cliente termina ya sea en estado 0 o 3, la tienda está interesada en determinar la probabilidad de que un cliente caerá como cuenta mala ya sea que esté en el estado 1 o 2. P = Estado Pagado 1 a 30 días 31 a 60 días Cuenta mala Pagado a 30 días 31 a 60 días Cuenta mala Estado
29 Solución Se requiere calcular f 13 y f 23 Resolviendo f ik = M p ij f jk f 13 = p 10 f 03 +p 11 f 13 +p 12 f 23 +p 13 f 33 f 23 = p 20 f 03 +p 21 f 13 +p 22 f 23 +p 23 f 33 Se puede suponer que f 03 = 0 (no se puede ir de pagar todo a cuenta mala), f 33 = 1 (si eres cuenta mala, te quedas en cuenta mala) Sustituyendo estos valores y las probabilidades definidas en la matriz de transición f 13 = F 23 = 0.025
Cadenas de Markov. http://humberto-r-alvarez-a.webs.com
Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados. Estos
Estadística Bayesiana
Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.
FORMULARIO CADENAS DE MARKOV
FORMULARIO CADENAS DE MARKOV Fuente: F. Hillier - G. Lieberman: Introducción a la investigación de operaciones. Sexta edición. Ed. Mc-Graw Hill. Proceso estocástico. Un proceso estocástico es una colección
CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO
2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO Cadenas de Markov 10 En la primera parte del capítulo se estudian las probabilidades condicionales de transición -definidas en (l5) y (16) - e incondicionales
Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
Introducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico
PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar
CONFERENCIA TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria
Una invitación al estudio de las cadenas de Markov
Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Cadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones
Tiempo Continuo Modelado y Análisis de Redes de Telecomunicaciones 1 Agenda en tiempo continuo Ergodicidad de la cadena Ejemplo: Líneas Telefónicas página 2 CMTC Consideremos ahora los procesos de Markov
Cadenas de Markov. José Antonio Camarena Ibarrola
Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el
PROCESOS ESTOCÁSTICOS
Capítulo 10 Cadenas de Markov PROCESOS ESTOCÁSTICOS Una sucesión de observaciones X 1,X 2,... se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero
Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)
Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo
CAPITULO II APLICACIÓN DEL PROCESO DE MARKOV EMPRESA AGROINDUSTRIAL
Procesos de Markov de tiempo discreto y espacio discreto: Aplicaciones a procesos contables. Cabanillas Celis, Edgardo. CAPITULO II APLICACIÓN DEL PROCESO DE MARKOV EMPRESA AGROINDUSTRIAL 1.- ANTECEDENTES
Procesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Problema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010
Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Problema 1: (3,25 puntos) Resolver Mediante el Algoritmo del Simplex el siguiente problema: TABLA 1 Max 3x 1 + x
Procesos estocásticos Cadenas de Márkov
Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el
Capítulo 1. Teoría de la probabilidad Teoría de conjuntos
Capítulo 1 Teoría de la probabilidad 1.1. Teoría de conjuntos Definición 1.1.1 El conjunto S de todos los posibles resultados de un experimento aleatorio es llamado el espacio muestral. Un espacio muestral
UNIVERSIDAD DE MANAGUA Al más alto nivel
UNIVERSIDAD DE MANAGUA Al más alto nivel Investigación de Operaciones Encuentro #9 Tema: Tarea evaluativa de Cadenas de Markov Prof.: MSc. Julio Rito Vargas A. Grupo:CCEE y ADMVA /216 I. En una Unidad
cadenas de Markov tienen la propiedad de que la probabilidad de que X n = j sólo depende
Cadenas de Markov Los procesos de paseo aleatorio en realidad son un caso particular de procesos más generales que son las cadenas de Markov. En esencia, una cadena es un proceso en tiempo discreto en
> Cadenas de Markov. Horacio Rojo y Miguel Miranda. @ 71.07 Investigación Operativa
@ 707 Investigación Operativa > Cadenas de Markov Horacio Rojo y Miguel Miranda c 2009 Facultad de Ingeniería, Universidad de Buenos Aires Digitalizado por Virginia Guala $September 2, 2009 Cadenas de
Ayudantía N 9. Problema 1. Considere la siguiente matriz de transición. 1/2 1/2 0 1/3 1/3 1/3
Universidad Diego Portales. Escuela de Industrias, Facultad de Ingeniería. Modelos Estocásticos; 2do semestre de 2014. Profesor: Franco Basso Ayudantes: Diego Espinoza Ayudantía N 9 Problema 1 Considere
CI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA
CI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA alcantarilla Puente? Badén http://www.disasternews.net/multimedia/files/drought5_9412.jpg Fenómenos en Ingeniería (según certeza de ocurrencia) determinísticos
Maestría en Bioinformática Probabilidad y Estadística: Clase 4
Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff [email protected] Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios
Unidad Temática 3: Probabilidad y Variables Aleatorias
Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento
Modelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado
Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado Cristhian D SANDOVAL Ximena GALINDO Roberto E SALAS RESUMEN Este artículo expone el diseño del prototipo de
Clasificación de sistemas
Capítulo 2 Clasificación de sistemas 2.1 Clasificación de sistemas La comprensión de la definición de sistema y la clasificación de los diversos sistemas, nos dan indicaciones sobre cual es la herramienta
Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.
Pérdida Esperada Uno de los objetivos de este estudio es construir una función de pérdidas para el portafolio de la cartera de préstamos que ofrece la entidad G&T Continental, basados en el comportamiento
Una invitación al estudio de las cadenas de Markov
Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Introducción
1. Introducción a la redes de colas. 2. Redes de colas abiertas. Teorema de Burke Sistemas en tándem
CONTENIDOS 1. Introducción a la redes de colas 2. Redes de colas abiertas. Teorema de Burke 2.1. Sistemas en tándem 2.2. Redes de Jackson abiertas. Teorema de Jackson 2.3. Aplicación: Multiprogramación
Formalmente, para definir una cadena de Markov finita hace falta determinar por lo tanto los siguientes elementos:
Cadenas de Markov 5 3 Cadenas de Markov 3. Cadenas de Markov: Introducción 3.. Concepto de cadena de Markov Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados
Procesos estocásticos. Definición
Procesos estocásticos Definición http://humberto-r-alvarez-a.webs.com Definición de proceso estocástico Estudio del comportamiento de una variable aleatoria a lo largo del tiempo El ajuste de cualquier
Año Académico 2009 INGENIERÍA INDUSTRIAL E INGENIERÍA DE SISTEMAS
Año Académico 2009 INGENIERÍA INDUSTRIAL E INGENIERÍA DE SISTEMAS Investigación de operaciones I UNIDAD Unidad I: Programación lineal Conjuntos convexos, propiedades. Solución gráfica del problema bidimensional
Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices
Matrices Una matriz de orden m n es un conjunto ordenado de m n números reales dispuestos en m filas y n columnas de la forma: A = a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n a i1 a i2 a ij a in a m1 a m2
Maestro Ing. Julio Rito Vargas Avilés. III cuatrimestre 2014
Maestro Ing. Julio Rito Vargas Avilés. III cuatrimestre 2014 INVESTIGACIÓN DE OPERACIONES Introducción a las cadenas de Markov de primer orden 1. Definición de cadenas de Markov 2. Tipos de estados y de
Sea T R y (Ω, F, P ) un espacio de probabilidad. Un proceso aleatorio es una función
Capítulo 2 Cadenas de Markov 21 Introducción Sea T R y (Ω, F, P ) un espacio de probabilidad Un proceso aleatorio es una función X : T Ω R tal que para cada t T, X(t, ) es una variable aleatoria Si fijamos
Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002
Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: de mayo de 22 INDICACIONES Duración del parcial: 4 hrs. Escribir las hojas de un solo lado. No se permite el uso de material
Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Teoría de la probabilidad Los fenómenos del mundo real se pueden clasificar en dos tipos: Determinista:
PIPE - Probabilidad y Procesos Estocásticos
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2017 200 - FME - Facultad de Matemáticas y Estadística 749 - MAT - Departamento de Matemáticas MÁSTER UNIVERSITARIO EN ESTADÍSTICA
Unidad IV Cadenas de Markov
Unidad IV Cadenas de Markov UNI-NORTE CARRERAS ING. DE SISTEMAS E INDUSTRIAL I semestre 29 Maestro Ing. Julio Rito Vargas Avilés. Sumario Procesos estocásticos Concepto de cadena de Markov Ecuaciones de
Redes de Petri Estocásticas
Redes de Petri Estocásticas Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Definición: Una red de Petri Estocástica es una red de Petri con transiciones con
Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov
Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Curso 2011/2012 Materiales: (a) Ordenadores equipados con Matlab Objetivos: (a) Estudiar las cadenas de Markov como una familia de secuencias
Procesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
POSIBLE SOLUCIÓN DEL EXAMEN DE INVESTIGACIÓN OPERATIVA DE SISTEMAS DE SEPTIEMBRE DE 2002.
POSIBLE SOLUCIÓN DEL EXAMEN DE INVESTIGACIÓN OPERATIVA DE SISTEMAS DE SEPTIEMBRE DE 2002. Problema 1 (3,5 puntos): Un agricultor tiene posee 100 hectáreas para cultivar trigo y alpiste. El costo de la
UNIDAD 4 PROCESOS DE MARKOV
UNIDAD 4 PROCESOS DE MARKOV Anteriormente se han cubierto modelos estáticos, esto es, modelos cuyos parámetros permanecen sin cambio a través del tiempo. Con excepción de programación dinámica donde se
Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov
Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Métodos Numéricos (SC 854) Interpolación
Interpolación c M. Valenzuela 2007 2008 (26 de febrero de 2008) 1. Definición del problema de interpolación Dada una tabla de valores (x i,f i ) se desea estimar f(x) para valores de x que no se encuentran
MASTER EN CIENCIAS ACTUARIALES Y FINANCIERAS PLAN Módulo: ANALISIS DEL RIESGO ACTUARIAL Y FINANCIERO
MASTER EN CIENCIAS ACTUARIALES Y FINANCIERAS PLAN 2009 Nombre de asignatura: ESTADÍSTICA ACTUARIAL I Código: 603375 Materia: ESTADÍSTICA ACTUARIAL Módulo: ANALISIS DEL RIESGO ACTUARIAL Y FINANCIERO Carácter:
TAREA 1 ALGEBRA ING. AMBIENTAL UNIVERSIDAD DE CÒRDOBA Vanessa Aldana, Cristian Gonzales, María De La Ossa
TAREA 1 ALGEBRA ING. AMBIENTAL UNIVERSIDAD DE CÒRDOBA Vanessa Aldana, Cristian Gonzales, María De La Ossa EJERCICIO 1 Para una matriz A nxn. En qué consiste la factorización o descomposición LU? Explique
SISTEMAS DE ECUACIONES LINEALES Y MATRICES
y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015 1 Visita http://sergiosolanosabie.wikispaces.com y SISTEMAS DE ECUACIONES ES Y MATRICES Sergio Stive Solano 1 Febrero de 2015
Cadenas de Markov y aplicaciones en biología computacional. Alex Sánchez. Departament d Estadística U.B. 1. Estadística i Bioinformàtica
Cadenas de Markov y aplicaciones en biología computacional Departament d Estadística U.B. Estadística i Bioinformàtica Esquema del tema Modelos de secuencias biológicas Cadenas de Markov Definición y conceptos
Simulación computacional de cadenas de Markov
Simulación computacional de cadenas de Markov Presentación basada en el capítulo 3 de Finite Markov Chains and Algorithmic Applications (Häggström, 2002) Sebastián Castro Seminario de Probabilidad y Estadística
Matrices. José Vicente Romero Bauset. ETSIT-curso 2009/2010. José Vicente Romero Bauset Tema 1.- Matrices. 1
Matrices José Vicente Romero Bauset ETSIT-curso 2009/2010 José Vicente Romero Bauset Tema 1- Matrices 1 Introducción Por qué estudiar las matrices? Son muchas las situaciones de la vida real en las que
Distribución Exponencial
Distribución Exponencial Hay dos casos especiales importantes de la distribución gamma, que resultan de restricciones particulares sobre los parámetros α y β. El primero es cuando se tiene α = 1, entonces
12.Teoría de colas y fenómenos de espera
.Teoría de colas y fenómenos de espera Notación y terminología Modelado del proceso de llegada Modelado del proceso de servicio Notación de Kendall-Lee Procesos de nacimiento y muerte Modelo M/M/. Análisis
Procesos Estocásticos I
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO Facultad de Ciencias Plan de estudios de la Licenciatura en Actuaría Procesos Estocásticos I Clave 0630 Modalidad Semestre 5 Créditos 10 Área Campo de conocimiento
Unidad II: Fundamentos de la teoría de probabilidad
Unidad II: Fundamentos de la teoría de probabilidad 2.1 Teoría elemental de probabilidad El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos que se denominan aleatorios, cuya característica
Fundamentos de la Teoría de la Probabilidad. Ing. Eduardo Cruz Romero
Fundamentos de la Teoría de la Probabilidad Ing. Eduardo Cruz Romero www.tics-tlapa.com Teoría elemental de la probabilidad (1/3) El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos
1ER TRABAJO DE ALGEBRA LINEAL Y GEOMETRÍA PEDRO JAVIER CARMONA LUNA PRESENTADO A: HUGO R. PÉREZ CARRASCAL LIC. EN MATEMÁTICAS UNIVERSIDAD DE CÓRDOBA
1ER TRABAJO DE ALGEBRA LINEAL Y GEOMETRÍA PEDRO JAVIER CARMONA LUNA PRESENTADO A: HUGO R. PÉREZ CARRASCAL LIC. EN MATEMÁTICAS UNIVERSIDAD DE CÓRDOBA FACULTAD DE INGENIERÍAS PROGRAMA DE INGENIERÍA AMBIENTAL
Estudio y Valoración de Rentas Financieras
Estudio y Valoración de Rentas Financieras 2016 Asturias: Red de Universidades Virtuales Iberoamericanas 1 Índice 1 Concepto y Clasificación... 3 1.1 Clasificación... 5 2 Rentas Financieras Constantes...
TALLER 1 DE ALGEBRA LINEAL Y GEOMETRÍA INGENIERÍA AMBIENTAL - UNIVERSIDAD DE CÓRDOBA FACTORIZACIÓN LU Y CADENAS DE MARKOV
TALLER 1 DE ALGEBRA LINEAL Y GEOMETRÍA INGENIERÍA AMBIENTAL - UNIVERSIDAD DE CÓRDOBA FACTORIZACIÓN LU Y CADENAS DE MARKOV DESCRIPCIÓN: En el siguiente trabajo se mostrarán algunos métodos para encontrar
TEMA 4 Modelos discretos elementales. Ecuaciones en diferencias
TEMA 4 Modelos discretos elementales. Ecuaciones en diferencias Chelo Ferreira González Avicenna (980-1037) 1. Introducción. Modelos matemáticos 2. Métodos numéricos. Resolución de sistemas lineales y
1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.
Capítulo 5 Campos finitos 5.1. Introducción Presentaremos algunos conceptos básicos de la teoría de los campos finitos. Para mayor información, consultar el texto de McEliece [61] o el de Lidl y Niederreiter
PROCESOS DE MARKOV. Definiciones en los Procesos de Markov de Primer Orden:
ROCESOS DE MARKOV rinciio de Markov: Cuando una robabilidad condicional deende únicamente del suceso inmediatamente anterior, cumle con el rinciio de Markov de rimer Orden, es decir. X ( t ) j X () K,
13.Teoría de colas y fenómenos de espera
3.Teoría de colas y fenómenos de espera Notación y terminología Modelado del proceso de llegada Modelado del proceso de servicio Notación de Kendall-Lee Procesos de nacimiento y muerte Modelo M/M/. Análisis
Matemáticas II Grado en Administración y Dirección de Empresas
Matemáticas II Grado en Administración y Dirección de Empresas Grupo A Curso 200-20 Universidad devalladolid Departamento de Economía Aplicada. Introducción a las matemáticas de las operaciones financieras.
Facultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2. Cadenas de Markov en Tiempo Discreto
Facultad de Ingeniería - IIE Modelado y análisis de redes de telecomunicaciones Práctico 2 Cadenas de Markov en Tiempo Discreto Ejercicio 1 Una computadora genera paquetes de datos y los envía por la red.
1. Experimentos aleatorios
1. Eperimentos aleatorios La eperimentación es útil porque si se supone que llevamos a cabo ciertos eperimentos bajo condiciones esencialmente idénticas se llegará a los mismos resultados. En estas circunstancias,
Tema 7: Derivada de una función
Tema 7: Derivada de una función Antes de dar la definición de derivada de una función en un punto, vamos a introducir dos ejemplos o motivaciones iniciales que nos van a dar la medida de la importancia
Tema 02. Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes. Rafael Estepa Alonso Universidad de Sevilla
Tema 02 Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes Rafael Estepa Alonso Universidad de Sevilla Índice del Tema 02 2.1 Introducción a las Prestaciones
Cap. Distribuciones de. probabilidad. discreta. Distribuciones de probabilidad. discreta Pearson Prentice Hall. All rights reserved
Cap 6 36 Distribuciones de Distribuciones de probabilidad discreta probabilidad discreta Variables aleatorias Una variable aleatoria (v.a.) es un número real asociado al resultado de un experimento aleatorio
Nota 3.1 La propiedad markoviana es equivalente a cualquiera de las siguientespropiedades:
Capítulo 3: Cadenas de Markov. Una propiedad de especial importancia que poseen los ya estudiados caminos aleatorios y procesos de ramificación, es que sus valores en el n ésimo paso sólo dependen de los
CC40A Complejidad de Kolmogorov
CC40A Complejidad de Kolmogorov Ricardo Baeza Yates, Rodrigo Paredes Dept. de Ciencias de la Computación, Universidad de Chile. 1. Definiciones Básicas La Complejidad de Kolmogorov (CK) de un string s
ACTIVIDADES SELECTIVIDAD MATRICES
ACTIVIDADES SELECTIVIDAD MATRICES Ejercicio 1 Para qué valores de m tiene solución la ecuación matricial? (b) Resuelve la ecuación matricial dada para. Ejercicio 2 Siendo I la matriz identidad de orden
Ejercicios resueltos del capítulo 4
Ejercicios resueltos del capítulo 4 Ejercicios impares resueltos..a Calcular los autovalores y subespacios invariantes asociados a la matriz: A = Calculamos el polinomio característico y resolvemos: λ
Sistemas de Ecuaciones. Lineales II
Sistemas de Ecuaciones Lineales II Factorización LU: Eliminación Gaussiana Relación con la factorización LU 521230-1 - DIM Universidad de Concepción Solución de sistemas con matriz triangular Dadas L =
El Algoritmo E-M. José Antonio Camarena Ibarrola
El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas
Probabilidad Condicional
Probabilidad Condicional Ejemplo: Se tiene que dos bolas son seleccionadas aleatoriamente (sin reemplazo) de un caja que contiene r bolas rojas y b bolas azules. Cuál es la probabilidad de que la primera
Más ejercicios y soluciones en fisicaymat.wordpress.com MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES
MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES - Considere el sistema 3 5 7 0 3 3 6 0 3 4 6 0 a) Estudie para qué valores del número real a, la única solución del sistema es la nula. b) Resuélvalo, si
Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso
Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio
Sistemas de Ecuaciones Lineales y Matrices
Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una
Grafos y Redes. 3. Resolución: Dibujar el camino sin levantar el lápiz y pasando sólo una vez por cada arco o arista.
Grafos y Redes. Nodos: vértices, 2, 3 2. Arcos: aristas, conexión entre nodos. 2, 54, etc. 3. Resolución: Dibujar el camino sin levantar el lápiz y pasando sólo una vez por cada arco o arista. 4. Grado
Álgebra Lineal V: Subespacios Vectoriales.
Álgebra Lineal V: Subespacios Vectoriales. José María Rico Martínez Departamento de Ingeniería Mecánica Facultad de Ingeniería Mecánica Eléctrica y Electrónica Universidad de Guanajuato email: [email protected]
Modelos elección discreta y variable dependiente limitada
Modelos elección discreta y variable dependiente limitada Profesor: Graciela Sanroman Facultad de Ciencias Económicas y Administración Año 2010 Modelos multinomiales Los modelos multinomiales son aquellos
Formulación del problema de la ruta más corta en programación lineal
Formulación del problema de la ruta más corta en programación lineal En esta sección se describen dos formulaciones de programación lineal para el problema de la ruta más corta. Las formulaciones son generales,
Método epsilon-delta para operadores diferenciales e identidades básicas
Método epsilon-delta para operadores diferenciales e identidades básicas Raúl Gormaz October 16, 2011 1 El tensor (o el delta) de Kroneker: δ ij No nos extendamos nuevamente sobre lo ya visto en clase,
Sea una función continua no negativa en y sea una antiderivada de.
La integral definida Área bajo curva Teorema Fundamental del Cálculo: Sea una función continua no negativa en y sea una antiderivada de. Entonces el área A, bajo la curva y entre las rectas verticales
