Solemne 2. CII Modelos Estocásticos 28 de junio Profesores: Basso, Batarce, Feres y Varas

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Solemne 2. CII Modelos Estocásticos 28 de junio Profesores: Basso, Batarce, Feres y Varas"

Transcripción

1 CII753 - Modelos Estocásticos 8 de junio 7 Profesores: Basso, Batarce, Feres y Varas Solemne P (a) Un conocido mago del Paseo Ahumada ha hecho una respetable fortuna con el siguiente juego de azar: en una mesa tiene tres vasos no transparentes boca abajo y dos bolitas que se colocan juntas o por separado debajo de alguno de los vasos Luego, con una habilidad y rapidez impresionantes, el mago procede a mover las bolitas de un vaso a otro En cada movimiento cambia de posición solo una bolita Esto lo hace incontables veces hasta que un jugador deseoso de apostar le dice stop En ese momento el jugador tiene que escoger uno de los vasos Si debajo de él están las dos bolitas, gana De lo contrario pierde Para simplificar el juego, asuma que en cada movimiento el mago escoge con igual probabilidad cualquiera de las bolitas, y también, que escoge equiprobablemente a cuál de los otros vasos la cambia (i) [ pto] Muestre que el juego anterior se puede modelar como una cadena de Markov en tiempo discreto con solo seis estados Identifique éstos y especifique cuáles son las probabilidades de transición en una etapa (ii) [ pto] Argumente sobre la unicidad de probabilidades estacionarias En cualquier caso, muestre que el vector definido por π k = 3 r k 9, donde r k denota el número de vasos vacíos en el estado k, corresponde a la distribución estacionaria de esta cadena Intuitivamente, por qué hay estados con mayor probabilidad estacionaria que otros? (iii) [ pto] Ignorando el hecho que usted pueda tener una vista muy aguda, cuál es la probabilidad de ganar el juego? Considere que usted escoge equiprobablemente cualquiera de los tres vasos y que el mago hace una infinidad de movimientos antes de que usted le diga stop (b) Considere un sistema de grúas que opera en un puerto El puerto puede almacenar hasta N contenedores Éstos llegan al puerto de acuerdo a un proceso de Poisson a tasa λ (contenedores/turno) Asuma que si al llegar un contenedor el patio de almacenamiento se encuentra lleno, el contenedor no ingresa al puerto y se redirige al más cercano El puerto posee K << N grúas que pueden operar simultáneamente Al principio de cada turno el sistema de grúas carga hasta un máximo de K contenedores en los barcos de destino Por simplicidad, asuma que en cada turno se carga la mayor cantidad posible de contenedores La carga de éstos se inicia al principio de cada turno, mientras que el tiempo de carga de cada contenedor es exactamente un turno Finalmente, asuma que un contenedor que llega al puerto en el transcurso de un turno, y que encuentra espacio en el patio de almacenamiento, deberá esperar hasta el inicio del siguiente turno para eventualmente ser enviado Sea X n el número de contenedores en el patio de almacenamiento al comienzo del n-ésimo turno, justo antes del inicio de la operación de las grúas (i) [ pto] Escriba una relación de recurrencia para la variable de estado del proceso Es decir, exprese X n+ en función de X n (ii) [5 ptos] Explique por qué el proceso estocástico {X n, n =,,, } es una cadena de Markov en tiempo discreto Que impacto tendría en el modelamiento el hecho que el número de contenedores que llegan en distintos turnos sean variables aleatorias intependientes que distribuyen Binomial con parámetros N y p = K N? Argumente (iii) [ pto] Determine la matriz de probabilidades de transición en una etapa (iv) [5 ptos] Clasifique los estados de esta cadena en transientes o recurrentes (nulos o positivos) Indique si hay clases periódicas, y el periodo si corresponde Solución

2 (a) (i) La matriz de transición es la siguiente: (ii) La cadena es ergódica ireductible por lo que por teorema visto en clases las probabilidades estacionarias existen y son únicas Resolviendo el sistema lineal tenemos que π = π = π 3 = 9 y π = π 5 = π 6 = 9 (iii) Para ganar debemos parar el juego en un estado tal que sea factible el ganar, y adicionalmente escoger correctamente el vaso ganador Entonces la probabilidad de ganar será: P [Ganar] = P [P ararenestadof actible] P [Escogerganador] P [Ganar] = (π + π + π 3 ) 3 = 9 (b) (i) Sea C(t) el número de contenedores que llegan al puerto en [, t] recurrencia es: X n+ = min{x n min{x n, K} + C(), N} () Una posible relación de (ii) Notemos que X n+ depende de X j ( j < n) solo a través de X n De esta forma se cumple la propiedad Markoviana La propiedad de estacionariedad se cumple trivialmente por cuanto el proceso de llegada de contenedores es un proceso de Poisson Si ahora el proceso de llegada distribuye binomial, éste no tiene impacto en la propiedad de estacionariedad por cuanto el número de contenedores que llegan son variables aleatorias independientes e idénticamente distribuidas Más aun, la propiedad Markoviana se sigue cumpliendo por lo que el proceso estocástico sigue siendo una cadena de Markov en tiempo discreto (iii) El espacio de estados son los enteros {,, N} Consideremos la siguiente notación P {C() = j} = a(j) P {C() j} = A(j) La matriz de probabilidades de transición está dada por: {} a() a() a() a(n ) A(N) {} a() a() a() a(n ) A(N) P = {K} = a() a() a() a(n ) A(N) {K + } a() a() a(n ) A(N ) {N} a(n K ) A(N K) (iv) De la matriz P, se deduce que existe una única clase recurrente positiva y aperiódica Es decir, es una cadena irreducible y ergódica P Un sistema de reservas de una linea aérea tiene dos computadores, uno en línea y uno de respaldo El equipo operativo falla después de un tiempo aleatorio exponencialmente distribuido de parámetro y se sustituye por el equipo de respaldo Hay sólo un taller de reparación y los tiempos de reparación se distribuyen exponencialmente con parámetro λ Sea X(t) es el número de computadores en funcionamiento en el instante t X(t) se puede modelar como una cadena de Markov en tiempo continuo para esto se pide los siguiente:

3 (a) [ pto] Encuentre la matriz de tasas instantáneas de transición del proceso X(t) y las tasas de permanencia (b) [ pto] Calcule las probabilidades estacionarias (c) [ pto] Calcule la probabilidad de que al menos un computador esté funcionando, en el largo plazo Frecuentemente, en la práctica, suponer un tiempo de operación exponencialemente distribuido no es realista debido al llamado fenómeno de quemado (burn-in) Este fenómeno puede ser descrito por una tasa de riesgo de falla que inicialmente es alta y luego decae hasta un nivel que se mantiene constante Corresponde a una situación en la cual un artículo recién fabricado o recién reparado tiene una probabilidad significativa de fallar tempranamente en su uso Si el artículo sobrevive a este período de prueba, entonces opera de manera exponencial o sin memoria Los fallos tempranos podrían corresponder a una fabricación incorrecta o una reparación defectuosa Una manera posibles de modelar el fenómeno de quemado es usar una mezcla de densidades exponenciales: f(t) = pαe αt + qβe βt, t, donde < p = q < y α, β > La interpretación de esta densidad de tiempo de falla es la siguiente Con probabilidad p el nuevo equipo (o uno recién reparado) tendrá una tasa de fallas α y con probabilidad q, tendrá una tasa de fallas β Si se incorpora el fenómeno de quemado en el proceso estocástico X(t), asumiendo que ahora que el tiempo de falla sigue la mezcla de distribuciones exponenciales anterior, el nuevo proceso estocástico Y (t) puede todavía ser modelado como una cadena de Markov en tiempo continuo Para hacerlo se pide lo siguiente: (d) [5 pto] Defina el espacio de estados de la cadena de Markov de manera que pueda modelar Y (t) (e) [ pto] Encuentre la matriz de tasas instantáneas de transición del proceso Y (t) y las tasas de permanencia (f) [ pto] Calcule las probabilidades estacionarias (g) [5 pto] Si λ =, =, α =, β = / y p =, calcule la probabilidad de que al menos un computador esté funcionando, en el largo plazo y compárela con lo que obtendría en (c) con estos parámetros Solución (a) Las tasas instantáneas de transición del proceso X(t) son: q = λ q = q = q = λ q = q = y las tasas de permanencia son: v = λ v = λ + v = (b) Las probabilidades estacionarias se obtienen resolviendo el siguiente sistema: λπ = π (λ + )π = λπ + π π = λπ π + π + π =

4 La solución es π = π = π = + λ + λ ( ) λ + λ + λ ( λ + λ + λ (c) La probabilidad de que al menos un computador esté funcionando, en el largo plazo, es ( ( λ + λ π = π + π = + λ + λ ) (d) El espacio de estados de la cadena de Markov Y (t) es definido por lo siguiente: : ningún servidor funcionando A : un servidor operando on-line con tasa de falla α B : un servidor operando on-line con tasa de falla β A : dos servidores operando, el que está on-line tiene tasa de falla α B : dos servidores operando, el que está on-line tiene tasa de falla β (e) La matriz de tasas instantáneas de transición del proceso Y (t) es: λp λq α λ β λ αp αq βp βq () y las tasas de permanencia son: v = λ v A = λ + α v B = λ + β v A = α v B = β (f) Las probabilidades estacionarias se obtienen resolviendo el siguiente sistema de ecuaciones: λπ = απ A + βπ B (α + λ)π A = pλπ + pαπ A + pβπ B (β + λ)π B = λπ + qαπ A + qβπ B απ A = λπ A βπ B = λπ B π + π A + π B + π A + π B =

5 La solución es la siguiente: π = π A = π B = π A = π B = αq(α + λ) + βp(β + λ) λ q(α + λ) p(β + λ) λq(α + λ) α λp(β + λ) β donde = q(α + λ)( + α + λ α ) + p(β + λ)( + β + λ β ) (g) La probabilidad de que al menos un computador esté funcionando, en el largo plazo, cuando se considera el fenómeno de quemado es π = 79 Cuando no se considera este fenómeno la probabilidad está dada por el resultado de la parte (c) y es igual a 9 Esto significa que al no considerar el periodo de quemado se sobrestima la probabilidad Tiempo: hrs

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos

Más detalles

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos

Más detalles

EJERCICIOS. 1 Repaso de probabilidad

EJERCICIOS. 1 Repaso de probabilidad EJERCICIOS 1 Repaso de probabilidad 1. (El problema del cumpleaños) Supongamos que la distribución del día de cumpleaños es uniforme, es decir, que cada día del año tiene probabilidad 1/365 de ser el cumpleaños

Más detalles

PROCESOS DE MARKOV DE TIEMPO CONTINUO

PROCESOS DE MARKOV DE TIEMPO CONTINUO CHAPTER 3 PROCESOS DE MARKOV DE TIEMPO CONTINUO 3.1 Introducción En este capítulo consideramos el análogo en tiempo continuo de las Cadenas de Markov de tiempo discreto. Como en el caso de tiempo discreto,

Más detalles

CONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario

CONTENIDOS. 1. Definición de Cadena de Markov en Tiempo Continuo. 2. Comportamiento de transición. 3. Comportamiento estacionario CONTENIDOS 1. Definición de Cadena de Markov en Tiempo Continuo 2. Comportamiento de transición 3. Comportamiento estacionario 4. Procesos de nacimiento y muerte 1. Definición de Cadena de Markov en Tiempo

Más detalles

Modelos Estocásticos I Tercer Examen Parcial Respuestas

Modelos Estocásticos I Tercer Examen Parcial Respuestas Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado

Más detalles

Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico

Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1) PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0,75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002

Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: 11 de mayo de 2002 Solución al Primer Parcial de Introducción a la Investigación de Operaciones Fecha: de mayo de 22 INDICACIONES Duración del parcial: 4 hrs. Escribir las hojas de un solo lado. No se permite el uso de material

Más detalles

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo

Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Cadenas

Más detalles

Procesos estocásticos Sesión 4. Cadenas de Markov

Procesos estocásticos Sesión 4. Cadenas de Markov Procesos estocásticos Sesión 4. Cadenas de Markov Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Probabilidades de retorno

Más detalles

Problema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010

Problema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Problema 1: (3,25 puntos) Resolver Mediante el Algoritmo del Simplex el siguiente problema: TABLA 1 Max 3x 1 + x

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:

Más detalles

4. Modelos Multivariantes

4. Modelos Multivariantes 4. Curso 2011-2012 Estadística Distribución conjunta de variables aleatorias Definiciones (v. a. discretas) Distribución de probabilidad conjunta de dos variables aleatorias X, Y Función de distribución

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad ½ 0.75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:

Más detalles

Teoría de Colas Modelo G/M/1 y G/M/k

Teoría de Colas Modelo G/M/1 y G/M/k Teoría de Colas Modelo G/M/1 y G/M/k Rodrigo Salas Fuentes Universidad Técnica Federico Santa María Departamento de Informática Profesor: Héctor Allende 1 Introducción En este trabajo

Más detalles

Revisión - soluciones. lunes 9 de octubre de 2017

Revisión - soluciones. lunes 9 de octubre de 2017 Introducción a los Procesos Estocásticos Curso 7 Revisión - soluciones lunes 9 de octubre de 7. Ejercicio (5 puntos) Considere una cadena de Markov homogénea {X n } n con espacio de S = {,,, } y matriz

Más detalles

Cadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones

Cadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones Tiempo Continuo Modelado y Análisis de Redes de Telecomunicaciones 1 Agenda en tiempo continuo Ergodicidad de la cadena Ejemplo: Líneas Telefónicas página 2 CMTC Consideremos ahora los procesos de Markov

Más detalles

Una invitación al estudio de las cadenas de Markov

Una invitación al estudio de las cadenas de Markov Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de

Más detalles

12.Teoría de colas y fenómenos de espera

12.Teoría de colas y fenómenos de espera .Teoría de colas y fenómenos de espera Notación y terminología Modelado del proceso de llegada Modelado del proceso de servicio Notación de Kendall-Lee Procesos de nacimiento y muerte Modelo M/M/. Análisis

Más detalles

Guía de Estudio del Tema 3. Cadenas de Markov. Matriz de Transición de un paso.

Guía de Estudio del Tema 3. Cadenas de Markov. Matriz de Transición de un paso. Universidad de Los Andes Facultad de Ciencias Económicas y Sociales Escuela de Estadística Procesos Estocásticos Sección 0 - A-06 Prof. Douglas Rivas Guía de Estudio del Tema 3. Cadenas de Markov. Matriz

Más detalles

Una aplicación de la Teoría Ergódica en la búsqueda de Google

Una aplicación de la Teoría Ergódica en la búsqueda de Google Ergódica Una aplicación de la Ergódica en la búsqueda de Google 10 de octubre de 2009 Una aplicación de la Ergódica en la búsqueda de Google Google Ergódica Una aplicación de la Ergódica en la búsqueda

Más detalles

1.1. Distribución exponencial. Definición y propiedades

1.1. Distribución exponencial. Definición y propiedades CONTENIDOS 1.1. Distribución exponencial. Definición y propiedades 1.2. Procesos de conteo 1.3. Procesos de Poisson - Tiempos de espera y entre llegadas - Partición y mezcla de un proceso de Poisson -

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 4

Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios

Más detalles

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)

Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i) Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo

Más detalles

CONFERENCIA TEMA: CADENAS DE MARKOV

CONFERENCIA TEMA: CADENAS DE MARKOV Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria

Más detalles

13.Teoría de colas y fenómenos de espera

13.Teoría de colas y fenómenos de espera 3.Teoría de colas y fenómenos de espera Notación y terminología Modelado del proceso de llegada Modelado del proceso de servicio Notación de Kendall-Lee Procesos de nacimiento y muerte Modelo M/M/. Análisis

Más detalles

Práctico 2 - parte 1

Práctico 2 - parte 1 1. ([2], p.8) Práctico 2 - parte 1 Cadenas de Markov en tiempo discreto: propiedad de Markov, matriz de transición. Fecha de entrega: viernes 2 de septiembre Sea {X n } n 0 una cadena de Markov homogénea

Más detalles

Interrogación (25 Ptos.) Conteste verbalmente las siguientes preguntas :

Interrogación (25 Ptos.) Conteste verbalmente las siguientes preguntas : . Universidad Católica de Chile Dpto. de Ingeniería de Sistemas Modelos Estocásticos rofesor Alvaro Alarcón 6 de Noviembre de 009 Interrogación 3.- (5 tos.) Conteste verbalmente las siguientes preguntas

Más detalles

Una aplicación de la Teoría Ergódica en la búsqueda de Google

Una aplicación de la Teoría Ergódica en la búsqueda de Google Dónde entra la Una aplicación de la en la búsqueda de 14 de octubre de 2009 Una aplicación de la en la búsqueda de Dónde entra la Una aplicación de la en la búsqueda de Dónde entra la Qué es el PageRank?

Más detalles

Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov

Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov Cadenas de Markov Hace más de un siglo se escribió el primer trabajo seminal sobre Cadenas de Markov y aún siguen siendo un instrumento tremendamente útil de modelación estocástica. Su importancia obedece

Más detalles

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios Esta lista contiene ejercicios y problemas tanto teóricos como de modelación. El objetivo

Más detalles

Estadística Bayesiana

Estadística Bayesiana Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.

Más detalles

PROGRAMA DE CURSO. Nombre en Inglés. Horas de Trabajo Personal Horas de Cátedra

PROGRAMA DE CURSO. Nombre en Inglés. Horas de Trabajo Personal Horas de Cátedra Código MA3401 PROBABILITY SCT PROBABILIDADES Unidades Docentes PROGRAMA DE CURSO Nombre Nombre en Inglés Horas de Cátedra Horas Docencia Auxiliar Horas de Trabajo Personal 6 10 3 2 5 Requisitos Carácter

Más detalles

2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO

2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO 2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO Cadenas de Markov 10 En la primera parte del capítulo se estudian las probabilidades condicionales de transición -definidas en (l5) y (16) - e incondicionales

Más detalles

FORMULARIO CADENAS DE MARKOV

FORMULARIO CADENAS DE MARKOV FORMULARIO CADENAS DE MARKOV Fuente: F. Hillier - G. Lieberman: Introducción a la investigación de operaciones. Sexta edición. Ed. Mc-Graw Hill. Proceso estocástico. Un proceso estocástico es una colección

Más detalles

Procesos de Poisson. 21 de marzo, FaMAF 1 / 25

Procesos de Poisson. 21 de marzo, FaMAF 1 / 25 Procesos de Poisson FaMAF 21 de marzo, 2013 1 / 25 Distribución exponencial Definición Una v.a. X con función de densidad dada por f λ (x) = λ e λx, x > 0, para cierto λ > 0 se dice una v.a. exponencial

Más detalles

Tema 4: Probabilidad y Teoría de Muestras

Tema 4: Probabilidad y Teoría de Muestras Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009

Más detalles

0 en otro caso. P (X > 0) P ( 0.5 < X < 0.5) P ( X > 0.25) x 3 si 0 x < 2. 1 si 2 x P(X 1) P(0.5 X 1) P(0.5 < X 1 X < 1) f X (x) = (1+αx) 2

0 en otro caso. P (X > 0) P ( 0.5 < X < 0.5) P ( X > 0.25) x 3 si 0 x < 2. 1 si 2 x P(X 1) P(0.5 X 1) P(0.5 < X 1 X < 1) f X (x) = (1+αx) 2 PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0.75(1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 3. ..,, f 0,75(1 -x2) -l<x<l fy (X) < [O en otro caso. P(X > 0) P(-0,5 < X < 0,5) P( X > 0,25) ' 0

PROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 3. ..,, f 0,75(1 -x2) -l<x<l fy (X) < [O en otro caso. P(X > 0) P(-0,5 < X < 0,5) P( X > 0,25) ' 0 PROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 3. Sea X una v.a. con función de densidad..,, f 0,75(1 -x2) -l

Más detalles

CI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA

CI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA CI 41C HIDROLOGÍA HIDROLOGÍA PROBABILÍSTICA alcantarilla Puente? Badén http://www.disasternews.net/multimedia/files/drought5_9412.jpg Fenómenos en Ingeniería (según certeza de ocurrencia) determinísticos

Más detalles

1. Introducción a la redes de colas. 2. Redes de colas abiertas. Teorema de Burke Sistemas en tándem

1. Introducción a la redes de colas. 2. Redes de colas abiertas. Teorema de Burke Sistemas en tándem CONTENIDOS 1. Introducción a la redes de colas 2. Redes de colas abiertas. Teorema de Burke 2.1. Sistemas en tándem 2.2. Redes de Jackson abiertas. Teorema de Jackson 2.3. Aplicación: Multiprogramación

Más detalles

Procesos estocásticos. Primera Prueba 1

Procesos estocásticos. Primera Prueba 1 08513. Procesos estocásticos. Primera Prueba 1 Problema 1. El número de partículas en una región del espacio evoluciona de la siguiente manera: en cada unidad de tiempo, cada partícula contenida en ella

Más detalles

Cadenas de Markov.

Cadenas de Markov. Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estado. Cadenas

Más detalles

Hoja de Problemas Tema 3 (Variables aleatorias multidimensionales)

Hoja de Problemas Tema 3 (Variables aleatorias multidimensionales) Depto. de Matemáticas Estadística (Ing. de Telecom.) Curso 2004-2005 Hoja de Problemas Tema 3 (Variables aleatorias multidimensionales) 1. Consideremos dos variables aleatorias independientes X 1 y X 2,

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 10

Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios

Más detalles

PROBLEMAS TEMA 2: TEORÍA DE COLAS. Curso 2013/2014

PROBLEMAS TEMA 2: TEORÍA DE COLAS. Curso 2013/2014 PROBLEMAS TEMA 2: TEORÍA DE COLAS. Curso 2013/2014 1. Un nuevo restaurante de comida rápida tiene una sola caja. En media, los clientes llegan a la caja con una tasa de 20 a la hora. Las llegadas se suponen

Más detalles

Lista de ejercicios # 4

Lista de ejercicios # 4 UNIVERSIDAD DE COSTA RICA MA-5 FACULTAD DE CIENCIAS Ecuaciones Diferenciales para Ingeniería ESCUELA DE MATEMÁTICA Primer Ciclo del 5 Lista de ejercicios # 4 Sistemas de ecuaciones diferenciales. EPII-II-

Más detalles

Hoja 4 Variables aleatorias multidimensionales

Hoja 4 Variables aleatorias multidimensionales Hoja 4 Variables aleatorias multidimensionales 1.- Estudiar si F (x, y) = 1, si x + 2y 1, 0, si x + 2y < 1, es una función de distribución en IR 2. 2.- Dada la variable aleatoria 2-dimensional (X, Y )

Más detalles

Probabilidad 1. Tarea 2

Probabilidad 1. Tarea 2 Probabilidad 1. Tarea 2 Prof. Daniel Cervantes Filoteo Ayud. Fernando Rojas Linares Instrucciones: Resuelva los siguientes problemas justificando sus respuestas. Entregue sus resultados, por equipos de

Más detalles

I Conceptos Generales 1

I Conceptos Generales 1 Índice I Conceptos Generales 1 1. Procesos Estocásticos 3 1.1. Introducción............................ 3 1.2. Definición de proceso estocástico................ 4 1.3. Distribución de un proceso estocástico.............

Más detalles

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

Probabilidad, Variables Aleatorias y Distribuciones

Probabilidad, Variables Aleatorias y Distribuciones GRUPO A Prueba de Evaluación Continua 5-XII-.- Tres plantas de una fábrica de automóviles producen diariamente 00, 00 y 000 unidades respectivamente. El porcentaje de unidades del modelo A es 60%, 0% y

Más detalles

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

Laboratorio 2 Probabilidad y Estadística con MATLAB GENERACIÓN DE VARIABLES ALEATORIAS Y SIMULACIÓN

Laboratorio 2 Probabilidad y Estadística con MATLAB GENERACIÓN DE VARIABLES ALEATORIAS Y SIMULACIÓN Laboratorio 2 Probabilidad y Estadística con MATLAB GENERACIÓN DE VARIABLES ALEATORIAS Y SIMULACIÓN Introducción Muchos de los métodos de estadística computacional requieren la capacidad de generar variables

Más detalles

Tema 4: Cadenas de Markov. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga

Tema 4: Cadenas de Markov. Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Tema 4: Cadenas de Markov Ezequiel López Rubio Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga Sumario Procesos estocásticos Concepto de cadena de Markov Ecuaciones de Chapman-Kolmogorov

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 7

Maestría en Bioinformática Probabilidad y Estadística: Clase 7 Maestría en Bioinformática Probabilidad y Estadística: Clase 7 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Condiciones de ergodicidad

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 2009

CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 2009 CADENAS DE MARKOV DE PARÁMETRO CONTINUO Rosario Romera Febrero 29. Nociones básicas Para las cadenas de Markov con parámetro de tiempo discreto hemos visto qe la matriz de transición en n etapas pede ser

Más detalles

Cadenas de Markov. José Antonio Camarena Ibarrola

Cadenas de Markov. José Antonio Camarena Ibarrola Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el

Más detalles

CONFERENCIA TEMA: CADENAS DE MARKOV

CONFERENCIA TEMA: CADENAS DE MARKOV Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria

Más detalles

PROCESOS ESTOCÁSTICOS. Primera Prueba. 1

PROCESOS ESTOCÁSTICOS. Primera Prueba. 1 08513. PROCESOS ESTOCÁSTICOS. Primera Prueba. 1 Problema 1. Sea {Y n } una sucesión de variables aleatorias independientes e idénticamente distribuidas con distribución P {Y n = k} = 1 N + 1 Sea X 1 =

Más detalles

UNIVERSIDAD DE MANAGUA Al más alto nivel

UNIVERSIDAD DE MANAGUA Al más alto nivel UNIVERSIDAD DE MANAGUA Al más alto nivel Investigación de Operaciones Encuentro #7 Tema: Cadenas de Markov Prof.: MSc. Julio Rito Vargas A. Grupo:CCEE y ADMVA /26 Objetivos: Aplicar la teoría fundamental

Más detalles

Matemática 3 Curso 2013

Matemática 3 Curso 2013 Matemática 3 Curso 2013 Práctica 3: Variables aleatorias discretas. Funciones de distribución Binomial, Geométrica, Hipergeométrica, Poisson. 1) Dadas las siguientes funciones, determinar cuales son funciones

Más detalles

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega

Más detalles

Redes de Petri Estocásticas

Redes de Petri Estocásticas Redes de Petri Estocásticas Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Definición: Una red de Petri Estocástica es una red de Petri con transiciones con

Más detalles

Procesos estocásticos. Definición

Procesos estocásticos. Definición Procesos estocásticos Definición http://humberto-r-alvarez-a.webs.com Definición de proceso estocástico Estudio del comportamiento de una variable aleatoria a lo largo del tiempo El ajuste de cualquier

Más detalles

U3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi

U3: Procesos Poisson. Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi U3: Procesos Poisson Probabilidad e Introducción a los Procesos Estocásticos. Mgs. Nora Arnesi Analizar el siguiente proceso estocástico: Una fuente radioactiva emite partículas y sea X t : número de partículas

Más detalles

4 APLICACIÓN DE CADENAS DE MARKOV A SISTEMAS DE ATENCIÓN

4 APLICACIÓN DE CADENAS DE MARKOV A SISTEMAS DE ATENCIÓN 4 APLICACIÓN DE CADENAS DE MARKOV A SISTEMAS DE ATENCIÓN 4.1 Definición del problema Cadenas de Markov 54 Dado un sistema de atención o prestación de un servicio cualquiera a clientes de cualquier naturaleza,

Más detalles

Procesos de LLegadas. Jhon Jairo Padilla A., PhD.

Procesos de LLegadas. Jhon Jairo Padilla A., PhD. Procesos de LLegadas Jhon Jairo Padilla A., PhD. Introducción En teletráfico es importante describir los procesos de llegadas en situaciones como: Las llegadas de llamadas en una central telefónica Las

Más detalles

Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov

Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Curso 2011/2012 Materiales: (a) Ordenadores equipados con Matlab Objetivos: (a) Estudiar las cadenas de Markov como una familia de secuencias

Más detalles

Transformaciones y esperanza

Transformaciones y esperanza Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es

Más detalles

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones

Más detalles

Introducción a los Procesos de Poisson *

Introducción a los Procesos de Poisson * Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22

Más detalles

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones

Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega

Más detalles

Martingalas. Procesos Estocásticos. Marzo 2012 UC3M

Martingalas. Procesos Estocásticos. Marzo 2012 UC3M Martingalas Procesos Estocásticos UC3M Marzo 2012 Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos

Más detalles

Introducción a Modelos de Recompensas en Sistemas semi-marko. aplicación a las Ciencias Actuariales

Introducción a Modelos de Recompensas en Sistemas semi-marko. aplicación a las Ciencias Actuariales Introducción a Modelos de Recompensas en Sistemas semi-markovianos No Homogéneos, Una aplicación a las Ciencias Actuariales Universidad Autónoma de Chiapas, Facultad de Ciencias en Física y Matemáticas

Más detalles

Ejercicios de teoría de colas

Ejercicios de teoría de colas Ejercicios de teoría de colas Investigación Operativa II Diplomatura en Estadística Curso 07/08 1. En un hospital se dispone de un equipo de médicos que pueden llevar a cabo cierto tipo de operaciones

Más detalles

08231 Cálculo de probabilidades y Estadística. Primera prueba 1

08231 Cálculo de probabilidades y Estadística. Primera prueba 1 08231 Cálculo de probabilidades y Estadística. Primera prueba 1 Problema 1. Una urna contiene 9 tarjetas bicolores. Entre ellas hay una blanca y negra, otra blanca y roja, otra blanca y azul, otra negra

Más detalles

S = N λ = 5 5 = 1 hora.

S = N λ = 5 5 = 1 hora. Teoría de Colas / Investigación Operativa 1 PROBLEMAS DE INVESTIGACIÓN OPERATIVA. Hoja 5 1. Al supercomputador de un centro de cálculo llegan usuarios según un proceso de Poisson de tasa 5 usuarios cada

Más detalles

Control 3. Lunes 23 de Junio 2008

Control 3. Lunes 23 de Junio 2008 Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN44A: Investigación Operativa Profesores: R. Caldentey, R. Epstein, P. Rey Prof. Aux.: J. Gacitúa,

Más detalles

Algunas Distribuciones EstadísticasTeóricas. Aproximación de la Distribución Binomial por la Distribución de Poisson

Algunas Distribuciones EstadísticasTeóricas. Aproximación de la Distribución Binomial por la Distribución de Poisson Algunas Distribuciones EstadísticasTeóricas Distribución de Bernoulli Distribución de Binomial Distribución de Poisson Aproximación de la Distribución Binomial por la Distribución de Poisson Distribución

Más detalles

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar

Más detalles

Si el conjunto de posibles estados del proceso es numerable, el proceso recibe el nombre de cadena de Markov.

Si el conjunto de posibles estados del proceso es numerable, el proceso recibe el nombre de cadena de Markov. .PROCESOS DE MARKOV Un proceso de Marov tiene la propiedad de que la probabilidad de comportamiento futuro está totalmente definida si se conoce el estado actual. El conocimiento de estados previos al

Más detalles

Tema 5. Introducción al Teletráfico y a la Teoría de Colas

Tema 5. Introducción al Teletráfico y a la Teoría de Colas Redes y Servicios de Telecomunicaciones Tema 5. Introducción al Teletráfico y a la Teoría de Colas Bertsekas: 3.1, 3.2, 3.3. Iversen: 1.1, 1.2, 1.5, 1.8, 2.2-2.2.3 (Repaso), 3.3. o Schwartz: 2.1 y 2.2

Más detalles

PROBLEMAS DE CADENAS DE MARKOV

PROBLEMAS DE CADENAS DE MARKOV PROBLEMAS DE CADENAS DE MARKOV M1. Estudiar los procesos estocásticos definidos por las matrices:.4.6 P 1 =.2.8.3.2.5 1 P 2 =.4.1.5 P 3 =.4.5.2.2.3.4.5.1.3.1.4.1.4.1 P 4 =.1.6.2.2.2.5.2.2.4.1.3 3/ 4 P

Más detalles

Tema 02. Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes. Rafael Estepa Alonso Universidad de Sevilla

Tema 02. Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes. Rafael Estepa Alonso Universidad de Sevilla Tema 02 Análisis de prestaciones e introducción al dimensionamiento en redes de conmutación de paquetes Rafael Estepa Alonso Universidad de Sevilla Índice del Tema 02 2.1 Introducción a las Prestaciones

Más detalles

Distribución de Probabilidad

Distribución de Probabilidad Distribución de Probabilidad Variables continuas Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Distribuciones de probabilidad continuas

Más detalles

S = N λ = 5 5 = 1 hora.

S = N λ = 5 5 = 1 hora. Teoría de Colas / Investigación Operativa 1 PROBLEMAS DE INVESTIGACIÓN OPERATIVA. Hoja 5 1. Al supercomputador de un centro de cálculo llegan usuarios según un proceso de Poisson de tasa 5 usuarios cada

Más detalles

Repaso de Teoría de la Probabilidad

Repaso de Teoría de la Probabilidad Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos

Más detalles

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 8

Maestría en Bioinformática Probabilidad y Estadística: Clase 8 Maestría en Bioinformática Probabilidad y Estadística: Clase 8 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Reversión temporal Cadena

Más detalles

Examen de Estadística

Examen de Estadística Examen de Estadística Grado en Ingeniería de Telecomunicación 4 de Junio de 03 Cuestiones solucion h 30m C. (p) Un sistema de comunicación está compuesto por los componentes A, B, C, D y E, donde cada

Más detalles

CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores

CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores CLASIFICACIÓN DE ESTADOS (Parte 2) Dr. José Dionicio Zacarias Flores Definiciones Se dice que un estado i es esencial si y sólo si se comunica con cada estado al que conduce; de lo contrario, se denomina

Más detalles

Dimensionamiento y Planificación de Redes

Dimensionamiento y Planificación de Redes Dimensionamiento y Planificación de Redes Tema 5. Sistemas con Fuentes Finitas Calvo Departamento de Ingeniería de Comunicaciones Este tema se publica bajo Licencia: Crea:ve Commons BY- NC- SA 4.0 Contenido

Más detalles

UNIVERSIDAD NACIONAL EXPERIMENTAL DEL TACHIRA VICERRECTORADO ACADEMICO COMISION CENTRAL DE CURRÌCULUM PROGRAMA ANALITICO

UNIVERSIDAD NACIONAL EXPERIMENTAL DEL TACHIRA VICERRECTORADO ACADEMICO COMISION CENTRAL DE CURRÌCULUM PROGRAMA ANALITICO ASIGNATURA: INVESTIGACION DE OPERACIONES II Código: 0135802T Elaborado por: Bethy Pinto Vigencia: 2008-1 JEFE DE DEPARTAMENTO JEFE DE NUCLEO Modulo I: Cadenas de Markov Objetivo General: Reconocer las

Más detalles

PIPE - Probabilidad y Procesos Estocásticos

PIPE - Probabilidad y Procesos Estocásticos Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2017 200 - FME - Facultad de Matemáticas y Estadística 749 - MAT - Departamento de Matemáticas MÁSTER UNIVERSITARIO EN ESTADÍSTICA

Más detalles