Solemne 2. CII Modelos Estocásticos 28 de junio Profesores: Basso, Batarce, Feres y Varas
|
|
- Jesús Bustamante Roldán
- hace 5 años
- Vistas:
Transcripción
1 CII753 - Modelos Estocásticos 8 de junio 7 Profesores: Basso, Batarce, Feres y Varas Solemne P (a) Un conocido mago del Paseo Ahumada ha hecho una respetable fortuna con el siguiente juego de azar: en una mesa tiene tres vasos no transparentes boca abajo y dos bolitas que se colocan juntas o por separado debajo de alguno de los vasos Luego, con una habilidad y rapidez impresionantes, el mago procede a mover las bolitas de un vaso a otro En cada movimiento cambia de posición solo una bolita Esto lo hace incontables veces hasta que un jugador deseoso de apostar le dice stop En ese momento el jugador tiene que escoger uno de los vasos Si debajo de él están las dos bolitas, gana De lo contrario pierde Para simplificar el juego, asuma que en cada movimiento el mago escoge con igual probabilidad cualquiera de las bolitas, y también, que escoge equiprobablemente a cuál de los otros vasos la cambia (i) [ pto] Muestre que el juego anterior se puede modelar como una cadena de Markov en tiempo discreto con solo seis estados Identifique éstos y especifique cuáles son las probabilidades de transición en una etapa (ii) [ pto] Argumente sobre la unicidad de probabilidades estacionarias En cualquier caso, muestre que el vector definido por π k = 3 r k 9, donde r k denota el número de vasos vacíos en el estado k, corresponde a la distribución estacionaria de esta cadena Intuitivamente, por qué hay estados con mayor probabilidad estacionaria que otros? (iii) [ pto] Ignorando el hecho que usted pueda tener una vista muy aguda, cuál es la probabilidad de ganar el juego? Considere que usted escoge equiprobablemente cualquiera de los tres vasos y que el mago hace una infinidad de movimientos antes de que usted le diga stop (b) Considere un sistema de grúas que opera en un puerto El puerto puede almacenar hasta N contenedores Éstos llegan al puerto de acuerdo a un proceso de Poisson a tasa λ (contenedores/turno) Asuma que si al llegar un contenedor el patio de almacenamiento se encuentra lleno, el contenedor no ingresa al puerto y se redirige al más cercano El puerto posee K << N grúas que pueden operar simultáneamente Al principio de cada turno el sistema de grúas carga hasta un máximo de K contenedores en los barcos de destino Por simplicidad, asuma que en cada turno se carga la mayor cantidad posible de contenedores La carga de éstos se inicia al principio de cada turno, mientras que el tiempo de carga de cada contenedor es exactamente un turno Finalmente, asuma que un contenedor que llega al puerto en el transcurso de un turno, y que encuentra espacio en el patio de almacenamiento, deberá esperar hasta el inicio del siguiente turno para eventualmente ser enviado Sea X n el número de contenedores en el patio de almacenamiento al comienzo del n-ésimo turno, justo antes del inicio de la operación de las grúas (i) [ pto] Escriba una relación de recurrencia para la variable de estado del proceso Es decir, exprese X n+ en función de X n (ii) [5 ptos] Explique por qué el proceso estocástico {X n, n =,,, } es una cadena de Markov en tiempo discreto Que impacto tendría en el modelamiento el hecho que el número de contenedores que llegan en distintos turnos sean variables aleatorias intependientes que distribuyen Binomial con parámetros N y p = K N? Argumente (iii) [ pto] Determine la matriz de probabilidades de transición en una etapa (iv) [5 ptos] Clasifique los estados de esta cadena en transientes o recurrentes (nulos o positivos) Indique si hay clases periódicas, y el periodo si corresponde Solución
2 (a) (i) La matriz de transición es la siguiente: (ii) La cadena es ergódica ireductible por lo que por teorema visto en clases las probabilidades estacionarias existen y son únicas Resolviendo el sistema lineal tenemos que π = π = π 3 = 9 y π = π 5 = π 6 = 9 (iii) Para ganar debemos parar el juego en un estado tal que sea factible el ganar, y adicionalmente escoger correctamente el vaso ganador Entonces la probabilidad de ganar será: P [Ganar] = P [P ararenestadof actible] P [Escogerganador] P [Ganar] = (π + π + π 3 ) 3 = 9 (b) (i) Sea C(t) el número de contenedores que llegan al puerto en [, t] recurrencia es: X n+ = min{x n min{x n, K} + C(), N} () Una posible relación de (ii) Notemos que X n+ depende de X j ( j < n) solo a través de X n De esta forma se cumple la propiedad Markoviana La propiedad de estacionariedad se cumple trivialmente por cuanto el proceso de llegada de contenedores es un proceso de Poisson Si ahora el proceso de llegada distribuye binomial, éste no tiene impacto en la propiedad de estacionariedad por cuanto el número de contenedores que llegan son variables aleatorias independientes e idénticamente distribuidas Más aun, la propiedad Markoviana se sigue cumpliendo por lo que el proceso estocástico sigue siendo una cadena de Markov en tiempo discreto (iii) El espacio de estados son los enteros {,, N} Consideremos la siguiente notación P {C() = j} = a(j) P {C() j} = A(j) La matriz de probabilidades de transición está dada por: {} a() a() a() a(n ) A(N) {} a() a() a() a(n ) A(N) P = {K} = a() a() a() a(n ) A(N) {K + } a() a() a(n ) A(N ) {N} a(n K ) A(N K) (iv) De la matriz P, se deduce que existe una única clase recurrente positiva y aperiódica Es decir, es una cadena irreducible y ergódica P Un sistema de reservas de una linea aérea tiene dos computadores, uno en línea y uno de respaldo El equipo operativo falla después de un tiempo aleatorio exponencialmente distribuido de parámetro y se sustituye por el equipo de respaldo Hay sólo un taller de reparación y los tiempos de reparación se distribuyen exponencialmente con parámetro λ Sea X(t) es el número de computadores en funcionamiento en el instante t X(t) se puede modelar como una cadena de Markov en tiempo continuo para esto se pide los siguiente:
3 (a) [ pto] Encuentre la matriz de tasas instantáneas de transición del proceso X(t) y las tasas de permanencia (b) [ pto] Calcule las probabilidades estacionarias (c) [ pto] Calcule la probabilidad de que al menos un computador esté funcionando, en el largo plazo Frecuentemente, en la práctica, suponer un tiempo de operación exponencialemente distribuido no es realista debido al llamado fenómeno de quemado (burn-in) Este fenómeno puede ser descrito por una tasa de riesgo de falla que inicialmente es alta y luego decae hasta un nivel que se mantiene constante Corresponde a una situación en la cual un artículo recién fabricado o recién reparado tiene una probabilidad significativa de fallar tempranamente en su uso Si el artículo sobrevive a este período de prueba, entonces opera de manera exponencial o sin memoria Los fallos tempranos podrían corresponder a una fabricación incorrecta o una reparación defectuosa Una manera posibles de modelar el fenómeno de quemado es usar una mezcla de densidades exponenciales: f(t) = pαe αt + qβe βt, t, donde < p = q < y α, β > La interpretación de esta densidad de tiempo de falla es la siguiente Con probabilidad p el nuevo equipo (o uno recién reparado) tendrá una tasa de fallas α y con probabilidad q, tendrá una tasa de fallas β Si se incorpora el fenómeno de quemado en el proceso estocástico X(t), asumiendo que ahora que el tiempo de falla sigue la mezcla de distribuciones exponenciales anterior, el nuevo proceso estocástico Y (t) puede todavía ser modelado como una cadena de Markov en tiempo continuo Para hacerlo se pide lo siguiente: (d) [5 pto] Defina el espacio de estados de la cadena de Markov de manera que pueda modelar Y (t) (e) [ pto] Encuentre la matriz de tasas instantáneas de transición del proceso Y (t) y las tasas de permanencia (f) [ pto] Calcule las probabilidades estacionarias (g) [5 pto] Si λ =, =, α =, β = / y p =, calcule la probabilidad de que al menos un computador esté funcionando, en el largo plazo y compárela con lo que obtendría en (c) con estos parámetros Solución (a) Las tasas instantáneas de transición del proceso X(t) son: q = λ q = q = q = λ q = q = y las tasas de permanencia son: v = λ v = λ + v = (b) Las probabilidades estacionarias se obtienen resolviendo el siguiente sistema: λπ = π (λ + )π = λπ + π π = λπ π + π + π =
4 La solución es π = π = π = + λ + λ ( ) λ + λ + λ ( λ + λ + λ (c) La probabilidad de que al menos un computador esté funcionando, en el largo plazo, es ( ( λ + λ π = π + π = + λ + λ ) (d) El espacio de estados de la cadena de Markov Y (t) es definido por lo siguiente: : ningún servidor funcionando A : un servidor operando on-line con tasa de falla α B : un servidor operando on-line con tasa de falla β A : dos servidores operando, el que está on-line tiene tasa de falla α B : dos servidores operando, el que está on-line tiene tasa de falla β (e) La matriz de tasas instantáneas de transición del proceso Y (t) es: λp λq α λ β λ αp αq βp βq () y las tasas de permanencia son: v = λ v A = λ + α v B = λ + β v A = α v B = β (f) Las probabilidades estacionarias se obtienen resolviendo el siguiente sistema de ecuaciones: λπ = απ A + βπ B (α + λ)π A = pλπ + pαπ A + pβπ B (β + λ)π B = λπ + qαπ A + qβπ B απ A = λπ A βπ B = λπ B π + π A + π B + π A + π B =
5 La solución es la siguiente: π = π A = π B = π A = π B = αq(α + λ) + βp(β + λ) λ q(α + λ) p(β + λ) λq(α + λ) α λp(β + λ) β donde = q(α + λ)( + α + λ α ) + p(β + λ)( + β + λ β ) (g) La probabilidad de que al menos un computador esté funcionando, en el largo plazo, cuando se considera el fenómeno de quemado es π = 79 Cuando no se considera este fenómeno la probabilidad está dada por el resultado de la parte (c) y es igual a 9 Esto significa que al no considerar el periodo de quemado se sobrestima la probabilidad Tiempo: hrs
CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesCONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesEJERCICIOS. 1 Repaso de probabilidad
EJERCICIOS 1 Repaso de probabilidad 1. (El problema del cumpleaños) Supongamos que la distribución del día de cumpleaños es uniforme, es decir, que cada día del año tiene probabilidad 1/365 de ser el cumpleaños
Más detallesPROCESOS DE MARKOV DE TIEMPO CONTINUO
CHAPTER 3 PROCESOS DE MARKOV DE TIEMPO CONTINUO 3.1 Introducción En este capítulo consideramos el análogo en tiempo continuo de las Cadenas de Markov de tiempo discreto. Como en el caso de tiempo discreto,
Más detallesCONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario
CONTENIDOS 1. Definición de Cadena de Markov en Tiempo Continuo 2. Comportamiento de transición 3. Comportamiento estacionario 4. Procesos de nacimiento y muerte 1. Definición de Cadena de Markov en Tiempo
Más detallesModelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Más detallesProcesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico
Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos
Más detallesPROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0,75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesSolución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002
Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: de mayo de 22 INDICACIONES Duración del parcial: 4 hrs. Escribir las hojas de un solo lado. No se permite el uso de material
Más detallesProcesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo
Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas
Más detallesProcesos estocásticos Sesión 4. Cadenas de Markov
Procesos estocásticos Sesión 4. Cadenas de Markov Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Probabilidades de retorno
Más detallesProblema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010
Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Problema 1: (3,25 puntos) Resolver Mediante el Algoritmo del Simplex el siguiente problema: TABLA 1 Max 3x 1 + x
Más detallesProcesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Más detalles4. Modelos Multivariantes
4. Curso 2011-2012 Estadística Distribución conjunta de variables aleatorias Definiciones (v. a. discretas) Distribución de probabilidad conjunta de dos variables aleatorias X, Y Función de distribución
Más detallesPROBABILIDADES Y ESTADÍSTICA (C) Práctica 3
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad ½ 0.75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:
Más detallesTeoría de Colas Modelo G/M/1 y G/M/k
Teoría de Colas Modelo G/M/1 y G/M/k Rodrigo Salas Fuentes Universidad Técnica Federico Santa María Departamento de Informática Profesor: Héctor Allende 1 Introducción En este trabajo
Más detallesRevisión - soluciones. lunes 9 de octubre de 2017
Introducción a los Procesos Estocásticos Curso 7 Revisión - soluciones lunes 9 de octubre de 7. Ejercicio (5 puntos) Considere una cadena de Markov homogénea {X n } n con espacio de S = {,,, } y matriz
Más detallesCadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones
Tiempo Continuo Modelado y Análisis de Redes de Telecomunicaciones 1 Agenda en tiempo continuo Ergodicidad de la cadena Ejemplo: Líneas Telefónicas página 2 CMTC Consideremos ahora los procesos de Markov
Más detallesUna invitación al estudio de las cadenas de Markov
Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de
Más detalles12.Teoría de colas y fenómenos de espera
.Teoría de colas y fenómenos de espera Notación y terminología Modelado del proceso de llegada Modelado del proceso de servicio Notación de Kendall-Lee Procesos de nacimiento y muerte Modelo M/M/. Análisis
Más detallesGuía de Estudio del Tema 3. Cadenas de Markov. Matriz de Transición de un paso.
Universidad de Los Andes Facultad de Ciencias Económicas y Sociales Escuela de Estadística Procesos Estocásticos Sección 0 - A-06 Prof. Douglas Rivas Guía de Estudio del Tema 3. Cadenas de Markov. Matriz
Más detallesUna aplicación de la Teoría Ergódica en la búsqueda de Google
Ergódica Una aplicación de la Ergódica en la búsqueda de Google 10 de octubre de 2009 Una aplicación de la Ergódica en la búsqueda de Google Google Ergódica Una aplicación de la Ergódica en la búsqueda
Más detalles1.1. Distribución exponencial. Definición y propiedades
CONTENIDOS 1.1. Distribución exponencial. Definición y propiedades 1.2. Procesos de conteo 1.3. Procesos de Poisson - Tiempos de espera y entre llegadas - Partición y mezcla de un proceso de Poisson -
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 4
Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios
Más detallesDefinición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)
Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo
Más detallesCONFERENCIA TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria
Más detalles13.Teoría de colas y fenómenos de espera
3.Teoría de colas y fenómenos de espera Notación y terminología Modelado del proceso de llegada Modelado del proceso de servicio Notación de Kendall-Lee Procesos de nacimiento y muerte Modelo M/M/. Análisis
Más detallesPráctico 2 - parte 1
1. ([2], p.8) Práctico 2 - parte 1 Cadenas de Markov en tiempo discreto: propiedad de Markov, matriz de transición. Fecha de entrega: viernes 2 de septiembre Sea {X n } n 0 una cadena de Markov homogénea
Más detallesInterrogación (25 Ptos.) Conteste verbalmente las siguientes preguntas :
. Universidad Católica de Chile Dpto. de Ingeniería de Sistemas Modelos Estocásticos rofesor Alvaro Alarcón 6 de Noviembre de 009 Interrogación 3.- (5 tos.) Conteste verbalmente las siguientes preguntas
Más detallesUna aplicación de la Teoría Ergódica en la búsqueda de Google
Dónde entra la Una aplicación de la en la búsqueda de 14 de octubre de 2009 Una aplicación de la en la búsqueda de Dónde entra la Una aplicación de la en la búsqueda de Dónde entra la Qué es el PageRank?
Más detallesCadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov
Cadenas de Markov Hace más de un siglo se escribió el primer trabajo seminal sobre Cadenas de Markov y aún siguen siendo un instrumento tremendamente útil de modelación estocástica. Su importancia obedece
Más detallesIII Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios
III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios Esta lista contiene ejercicios y problemas tanto teóricos como de modelación. El objetivo
Más detallesEstadística Bayesiana
Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.
Más detallesPROGRAMA DE CURSO. Nombre en Inglés. Horas de Trabajo Personal Horas de Cátedra
Código MA3401 PROBABILITY SCT PROBABILIDADES Unidades Docentes PROGRAMA DE CURSO Nombre Nombre en Inglés Horas de Cátedra Horas Docencia Auxiliar Horas de Trabajo Personal 6 10 3 2 5 Requisitos Carácter
Más detalles2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO
2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO Cadenas de Markov 10 En la primera parte del capítulo se estudian las probabilidades condicionales de transición -definidas en (l5) y (16) - e incondicionales
Más detallesFORMULARIO CADENAS DE MARKOV
FORMULARIO CADENAS DE MARKOV Fuente: F. Hillier - G. Lieberman: Introducción a la investigación de operaciones. Sexta edición. Ed. Mc-Graw Hill. Proceso estocástico. Un proceso estocástico es una colección
Más detallesProcesos de Poisson. 21 de marzo, FaMAF 1 / 25
Procesos de Poisson FaMAF 21 de marzo, 2013 1 / 25 Distribución exponencial Definición Una v.a. X con función de densidad dada por f λ (x) = λ e λx, x > 0, para cierto λ > 0 se dice una v.a. exponencial
Más detallesTema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Más detalles0 en otro caso. P (X > 0) P ( 0.5 < X < 0.5) P ( X > 0.25) x 3 si 0 x < 2. 1 si 2 x P(X 1) P(0.5 X 1) P(0.5 < X 1 X < 1) f X (x) = (1+αx) 2
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0.75(1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:
Más detallesPROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 3. ..,, f 0,75(1 -x2) -l<x<l fy (X) < [O en otro caso. P(X > 0) P(-0,5 < X < 0,5) P( X > 0,25) ' 0
PROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 3. Sea X una v.a. con función de densidad..,, f 0,75(1 -x2) -l
Más detallesCI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA
CI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA alcantarilla Puente? Badén http://www.disasternews.net/multimedia/files/drought5_9412.jpg Fenómenos en Ingeniería (según certeza de ocurrencia) determinísticos
Más detalles1. Introducción a la redes de colas. 2. Redes de colas abiertas. Teorema de Burke Sistemas en tándem
CONTENIDOS 1. Introducción a la redes de colas 2. Redes de colas abiertas. Teorema de Burke 2.1. Sistemas en tándem 2.2. Redes de Jackson abiertas. Teorema de Jackson 2.3. Aplicación: Multiprogramación
Más detallesProcesos estocásticos. Primera Prueba 1
08513. Procesos estocásticos. Primera Prueba 1 Problema 1. El número de partículas en una región del espacio evoluciona de la siguiente manera: en cada unidad de tiempo, cada partícula contenida en ella
Más detallesCadenas de Markov.
Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estado. Cadenas
Más detallesHoja de Problemas Tema 3 (Variables aleatorias multidimensionales)
Depto. de Matemáticas Estadística (Ing. de Telecom.) Curso 2004-2005 Hoja de Problemas Tema 3 (Variables aleatorias multidimensionales) 1. Consideremos dos variables aleatorias independientes X 1 y X 2,
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 10
Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios
Más detallesPROBLEMAS TEMA 2: TEORÍA DE COLAS. Curso 2013/2014
PROBLEMAS TEMA 2: TEORÍA DE COLAS. Curso 2013/2014 1. Un nuevo restaurante de comida rápida tiene una sola caja. En media, los clientes llegan a la caja con una tasa de 20 a la hora. Las llegadas se suponen
Más detallesLista de ejercicios # 4
UNIVERSIDAD DE COSTA RICA MA-5 FACULTAD DE CIENCIAS Ecuaciones Diferenciales para Ingeniería ESCUELA DE MATEMÁTICA Primer Ciclo del 5 Lista de ejercicios # 4 Sistemas de ecuaciones diferenciales. EPII-II-
Más detallesHoja 4 Variables aleatorias multidimensionales
Hoja 4 Variables aleatorias multidimensionales 1.- Estudiar si F (x, y) = 1, si x + 2y 1, 0, si x + 2y < 1, es una función de distribución en IR 2. 2.- Dada la variable aleatoria 2-dimensional (X, Y )
Más detallesProbabilidad 1. Tarea 2
Probabilidad 1. Tarea 2 Prof. Daniel Cervantes Filoteo Ayud. Fernando Rojas Linares Instrucciones: Resuelva los siguientes problemas justificando sus respuestas. Entregue sus resultados, por equipos de
Más detallesI Conceptos Generales 1
Índice I Conceptos Generales 1 1. Procesos Estocásticos 3 1.1. Introducción............................ 3 1.2. Definición de proceso estocástico................ 4 1.3. Distribución de un proceso estocástico.............
Más detallesVariables Aleatorias y Distribución de Probabilidades
Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables
Más detallesProbabilidad, Variables Aleatorias y Distribuciones
GRUPO A Prueba de Evaluación Continua 5-XII-.- Tres plantas de una fábrica de automóviles producen diariamente 00, 00 y 000 unidades respectivamente. El porcentaje de unidades del modelo A es 60%, 0% y
Más detallesAlgunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda
Más detallesLaboratorio 2 Probabilidad y Estadística con MATLAB GENERACIÓN DE VARIABLES ALEATORIAS Y SIMULACIÓN
Laboratorio 2 Probabilidad y Estadística con MATLAB GENERACIÓN DE VARIABLES ALEATORIAS Y SIMULACIÓN Introducción Muchos de los métodos de estadística computacional requieren la capacidad de generar variables
Más detallesTema 4: Cadenas de Markov. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga
Tema 4: Cadenas de Markov Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Sumario Procesos estocásticos Concepto de cadena de Markov Ecuaciones de Chapman-Kolmogorov
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 7
Maestría en Bioinformática Probabilidad y Estadística: Clase 7 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Condiciones de ergodicidad
Más detallesProcesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
Más detallesCADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 2009
CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 29. Nociones básicas Para las cadenas de Markov con parámetro de tiempo discreto hemos visto qe la matriz de transición en n etapas pede ser
Más detallesCadenas de Markov. José Antonio Camarena Ibarrola
Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el
Más detallesCONFERENCIA TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria
Más detallesPROCESOS ESTOCÁSTICOS. Primera Prueba. 1
08513. PROCESOS ESTOCÁSTICOS. Primera Prueba. 1 Problema 1. Sea {Y n } una sucesión de variables aleatorias independientes e idénticamente distribuidas con distribución P {Y n = k} = 1 N + 1 Sea X 1 =
Más detallesUNIVERSIDAD DE MANAGUA Al más alto nivel
UNIVERSIDAD DE MANAGUA Al más alto nivel Investigación de Operaciones Encuentro #7 Tema: Cadenas de Markov Prof.: MSc. Julio Rito Vargas A. Grupo:CCEE y ADMVA /26 Objetivos: Aplicar la teoría fundamental
Más detallesMatemática 3 Curso 2013
Matemática 3 Curso 2013 Práctica 3: Variables aleatorias discretas. Funciones de distribución Binomial, Geométrica, Hipergeométrica, Poisson. 1) Dadas las siguientes funciones, determinar cuales son funciones
Más detallesCadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
Más detallesRedes de Petri Estocásticas
Redes de Petri Estocásticas Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Definición: Una red de Petri Estocástica es una red de Petri con transiciones con
Más detallesProcesos estocásticos. Definición
Procesos estocásticos Definición http://humberto-r-alvarez-a.webs.com Definición de proceso estocástico Estudio del comportamiento de una variable aleatoria a lo largo del tiempo El ajuste de cualquier
Más detallesU3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi
U3: Procesos Poisson Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi Analizar el siguiente proceso estocástico: Una fuente radioactiva emite partículas y sea X t : número de partículas
Más detalles4 APLICACIÓN DE CADENAS DE MARKOV A SISTEMAS DE ATENCIÓN
4 APLICACIÓN DE CADENAS DE MARKOV A SISTEMAS DE ATENCIÓN 4.1 Definición del problema Cadenas de Markov 54 Dado un sistema de atención o prestación de un servicio cualquiera a clientes de cualquier naturaleza,
Más detallesProcesos de LLegadas. Jhon Jairo Padilla A., PhD.
Procesos de LLegadas Jhon Jairo Padilla A., PhD. Introducción En teletráfico es importante describir los procesos de llegadas en situaciones como: Las llegadas de llamadas en una central telefónica Las
Más detallesTratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov
Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Curso 2011/2012 Materiales: (a) Ordenadores equipados con Matlab Objetivos: (a) Estudiar las cadenas de Markov como una familia de secuencias
Más detallesTransformaciones y esperanza
Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es
Más detallesEstadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas
Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones
Más detallesIntroducción a los Procesos de Poisson *
Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22
Más detallesCadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
Más detallesMartingalas. Procesos Estocásticos. Marzo 2012 UC3M
Martingalas Procesos Estocásticos UC3M Marzo 2012 Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos
Más detallesIntroducción a Modelos de Recompensas en Sistemas semi-marko. aplicación a las Ciencias Actuariales
Introducción a Modelos de Recompensas en Sistemas semi-markovianos No Homogéneos, Una aplicación a las Ciencias Actuariales Universidad Autónoma de Chiapas, Facultad de Ciencias en Física y Matemáticas
Más detallesEjercicios de teoría de colas
Ejercicios de teoría de colas Investigación Operativa II Diplomatura en Estadística Curso 07/08 1. En un hospital se dispone de un equipo de médicos que pueden llevar a cabo cierto tipo de operaciones
Más detalles08231 Cálculo de probabilidades y Estadística. Primera prueba 1
08231 Cálculo de probabilidades y Estadística. Primera prueba 1 Problema 1. Una urna contiene 9 tarjetas bicolores. Entre ellas hay una blanca y negra, otra blanca y roja, otra blanca y azul, otra negra
Más detallesS = N λ = 5 5 = 1 hora.
Teoría de Colas / Investigación Operativa 1 PROBLEMAS DE INVESTIGACIÓN OPERATIVA. Hoja 5 1. Al supercomputador de un centro de cálculo llegan usuarios según un proceso de Poisson de tasa 5 usuarios cada
Más detallesControl 3. Lunes 23 de Junio 2008
Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN44A: Investigación Operativa Profesores: R. Caldentey, R. Epstein, P. Rey Prof. Aux.: J. Gacitúa,
Más detallesAlgunas Distribuciones EstadísticasTeóricas. Aproximación de la Distribución Binomial por la Distribución de Poisson
Algunas Distribuciones EstadísticasTeóricas Distribución de Bernoulli Distribución de Binomial Distribución de Poisson Aproximación de la Distribución Binomial por la Distribución de Poisson Distribución
Más detallesCADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico
PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar
Más detallesSi el conjunto de posibles estados del proceso es numerable, el proceso recibe el nombre de cadena de Markov.
.PROCESOS DE MARKOV Un proceso de Marov tiene la propiedad de que la probabilidad de comportamiento futuro está totalmente definida si se conoce el estado actual. El conocimiento de estados previos al
Más detallesTema 5. Introducción al Teletráfico y a la Teoría de Colas
Redes y Servicios de Telecomunicaciones Tema 5. Introducción al Teletráfico y a la Teoría de Colas Bertsekas: 3.1, 3.2, 3.3. Iversen: 1.1, 1.2, 1.5, 1.8, 2.2-2.2.3 (Repaso), 3.3. o Schwartz: 2.1 y 2.2
Más detallesPROBLEMAS DE CADENAS DE MARKOV
PROBLEMAS DE CADENAS DE MARKOV M1. Estudiar los procesos estocásticos definidos por las matrices:.4.6 P 1 =.2.8.3.2.5 1 P 2 =.4.1.5 P 3 =.4.5.2.2.3.4.5.1.3.1.4.1.4.1 P 4 =.1.6.2.2.2.5.2.2.4.1.3 3/ 4 P
Más detallesTema 02. Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes. Rafael Estepa Alonso Universidad de Sevilla
Tema 02 Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes Rafael Estepa Alonso Universidad de Sevilla Índice del Tema 02 2.1 Introducción a las Prestaciones
Más detallesDistribución de Probabilidad
Distribución de Probabilidad Variables continuas Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Distribuciones de probabilidad continuas
Más detallesS = N λ = 5 5 = 1 hora.
Teoría de Colas / Investigación Operativa 1 PROBLEMAS DE INVESTIGACIÓN OPERATIVA. Hoja 5 1. Al supercomputador de un centro de cálculo llegan usuarios según un proceso de Poisson de tasa 5 usuarios cada
Más detallesRepaso de Teoría de la Probabilidad
Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos
Más detallesJUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas
JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 8
Maestría en Bioinformática Probabilidad y Estadística: Clase 8 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Reversión temporal Cadena
Más detallesExamen de Estadística
Examen de Estadística Grado en Ingeniería de Telecomunicación 4 de Junio de 03 Cuestiones solucion h 30m C. (p) Un sistema de comunicación está compuesto por los componentes A, B, C, D y E, donde cada
Más detallesCLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores
CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores Definiciones Se dice que un estado i es esencial si y sólo si se comunica con cada estado al que conduce; de lo contrario, se denomina
Más detallesDimensionamiento y Planificación de Redes
Dimensionamiento y Planificación de Redes Tema 5. Sistemas con Fuentes Finitas Calvo Departamento de Ingeniería de Comunicaciones Este tema se publica bajo Licencia: Crea:ve Commons BY- NC- SA 4.0 Contenido
Más detallesUNIVERSIDAD NACIONAL EXPERIMENTAL DEL TACHIRA VICERRECTORADO ACADEMICO COMISION CENTRAL DE CURRÌCULUM PROGRAMA ANALITICO
ASIGNATURA: INVESTIGACION DE OPERACIONES II Código: 0135802T Elaborado por: Bethy Pinto Vigencia: 2008-1 JEFE DE DEPARTAMENTO JEFE DE NUCLEO Modulo I: Cadenas de Markov Objetivo General: Reconocer las
Más detallesPIPE - Probabilidad y Procesos Estocásticos
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2017 200 - FME - Facultad de Matemáticas y Estadística 749 - MAT - Departamento de Matemáticas MÁSTER UNIVERSITARIO EN ESTADÍSTICA
Más detalles