Práctico 2 - parte 1
|
|
|
- Irene Vera Sosa
- hace 7 años
- Vistas:
Transcripción
1 1. ([2], p.8) Práctico 2 - parte 1 Cadenas de Markov en tiempo discreto: propiedad de Markov, matriz de transición. Fecha de entrega: viernes 2 de septiembre Sea {X n } n 0 una cadena de Markov homogénea con distribución inicial π y matriz de transición P. Notación: {X n } n 0 CMH(π, P). Se define Y n := X kn, n = 0, 1,... para un entero positivo k fijo. Demostrar que {Y n } n 0 es una cadena de Markov homogénea con distribución inicial π y hallar su matriz de transición. 2. Considere una sucesión de lanzamientos independientes de un dado de seis caras no cargado, y sea X i la variable aleatoria que corresponde al número que aparece en la cara superior del dado en el i-ésimo lanzamiento, con X i {1, 2, 3, 4, 5, 6}. Se define Y n := máx 1 i n X i. Mostrar que {Y n } n 1 es una cadena de Markov y hallar su matriz de transición P. 3. Considere el problema de la ruina del jugador. Suponga que el capital inicial del jugador A es $5 y que el capital total S es $9. En cada etapa del juego el jugador A gana $1 con probabilidad 0.45, o pierde $1 con probabilidad Hallar el capital esperado del jugador A al cabo de tres etapas del juego, y al cabo de cuatro etapas del juego. 4. Considere un paseo al azar sin restricciones en Z en el cual la probabilidad de una transición del entero k al entero k 1 es p, la probabilidad de una transición del entero k al entero k + 1 es q, y la probabilidad de quedarse en el entero k es r, con p + q + r = 1. Hallar la matriz de transición de orden dos de dicho paseo al azar. 1
2 5. ([2], p.8) Sea X 0 una variable aleatoria que toma valores en el conjunto numerable S. Sea {Y n } n 1 una sucesión de variables aleatorias independientes y uniformemente distribuidas en [0, 1], con {Y n } n 1 independiente de X 0. Considere una función g : S [0, 1] S y la recurrencia X n+1 := g(x n, Y n+1 ). (a) Demostrar que {X n } n 0 es una cadena de Markov y expresar su matriz de transición en términos de la función g. (b) Argumentar si todas las cadenas de Markov pueden generarse empleando el procedimiento anterior. 6. ([2], p.9) Sea {Z n } n 0 una sucesión de variables aleatorias independientes e idénticamente distribuidas, Z i Ber(p). Se define S 0 = 0, S n := Z Z n. Determinar en cada uno de los siguientes casos si {X n } n 0 es una cadena de Markov: (a) X n = Z n ; (b) X n = S n ; (c) X n = S S n ; (d) X n = (S n, S S n ). En los casos en que {X n } n 0 es una cadena de Markov, hallar su espacio de estados S y su matrix de transición P. En los casos en que {X n } n 0 no es una cadena de Markov, proveer un ejemplo en el cual Pr(X n+1 = i X n = j, X n 1 = k) no es independiente de k. 7. Escribir un programa en el lenguaje R mediante el cual simular y visualizar la evolución de las trayectorias de una cadena de Markov homogénea con espacio de estados S = {A, B, C, D}, distribución inicial π = ( 1 8, 2 8, 1 8, 8) 4 y matriz de transición P arbitraria, exceptuando la presencia de estados de absorción. Desarrollar el programa anterior a los efectos de: 2
3 (a) chequear que la distribución inicial ingresada por el usuario es una distribución de probabilidad; (b) chequear que la matrix de transición ingresada por el usuario cumpla las propiedades que definen dicha matriz; (c) calcular el número de veces que la cadena visita cada estado al cabo de N transiciones de paso uno. 1. ([1], p.112) Práctico 2 - parte 2 Cadenas de Markov en tiempo discreto: aplicaciones del método del análisis del primer paso. Fecha de entrega: martes 13 de septiembre Sea {X n } n 0 una cadena de Markov homogénea que toma valores en el espacio de estados S = {0, 1,..., M}, con matriz de transición P = (P i,j ) i,j S. (a) Considere los tiempos de primera entrada y T 0 := inf{n 0 : X n = 0}, T M := inf{n 0 : X n = M}, g(k) = Pr(T 0 < T M X 0 = k), k = 0, 1,..., M. Cuáles son los valores de g(0) y g(m)? (b) Demostrar, a través del análisis del primer paso, que la función g cumple la relación M g(k) = P k,j g(j), j = 1,..., M 1. (1) j=0 (c) En esta pregunta, y en las siguientes preguntas de este ejercicio, considere el modelo estocástico de Sewall G. Wright y Ronald A. Fisher (un modelo básico en genética de poblaciones), donde el estado X n indica el número de individuos en la población al tiempo n, y ( )( ) j ( ) M j M k M k P k,j := Pr(X n+1 = j X n = k) =, k, j S. j M M 3
4 Escribir la matrix de transición P en el caso M = 3. (d) Demostrar, a partir de la pregunta (b), que dado que la solución de (1) es única, se cumple que Pr(T 0 < T M X 0 = k) = M k M (e) Sea T 0,M := inf{n 0 : X n = 0 o X n = M}, y, k = 0, 1,..., M. h(k) = E[T 0,M X 0 = k], k = 0, 1,..., M. Cuáles son los valores de h(0) y h(m)? (f) Demostrar, a través del análisis del primer paso, que la función h cumple la relación h(k) = 1 + M P k,j h(j), j = 1,..., M 1. j=0 (g) Dado M = 3, calcular 2. ([1], p.114) h(k) = E[T 0,3 X 0 = k], k = 0, 1, 2, 3. Un ratón de laboratorio se encuentra atrapado en un laberinto y, inicialmente, tiene que elegir entre dos posibles direcciones. Si elige ir a la derecha, entonces se paseará en el laberinto durante los siguientes tres minutos y luego volverá a su posición inicial. Si elige ir a la izquierda, entonces con probabilidad 1/3 saldrá del laberinto después de dos minutos, y con probabilidad 2/3 volverá a su posición inicial al cabo de cinco minutos. Asumiendo que el ratón, en todo momento, elige con la misma probabilidad ir a la izquierda o a la derecha, cuál es el número esperado de minutos que permanecerá atrapado en el laberinto? 3. ([2], p.18) Suponga que el capital inicial de un jugador es $2 y que el jugador necesite aumentar rápidamente su capital hasta $10. El jugador participa de un juego con las siguientes reglas: se lanza 4
5 una moneda no cargada; si el jugador apuesta a la cara de la moneda que coincide con el resultado del lanzamiento, entonces gana una suma igual a su apuesta, y su apuesta es devuelta; de lo contrario, el jugador pierde lo apostado. El jugador decide adoptar una estrategia en la cual apuesta todo su dinero si tiene $5 o menos, y en otro caso apuesta justo lo suficiente para aumentar su capital, si gana, a $10. (a) Sea X 0 = 2, y se indica con X n el capital del jugador luego de n lanzamientos de la moneda. Demostrar que el jugador logrará su objetivo con probabilidad 1/5. (b) Cuál es el número esperado de lanzamientos hasta que el jugador logre su objetivo o pierda su capital? 4. ([2], pp.18-19, serpientes y escaleras) Considere la siguiente versión del juego de mesa serpientes y escaleras basada en un tablero con nueve cuadrados (imagen extraída de ([2], p.18)): En cada turno un jugador lanza una moneda no cargada y mueve su pieza en el tablero uno o dos lugares adelante según el resultado del lanzamiento de la moneda, cara o número, respectivamente. Si la pieza cae en un cuadrado con los pies de una escalera entonces sube hasta lo alto de esta, pero si cae en un 5
6 cuadrado con la cabeza de una serpiente entonces retrocede al cuadrado con la cola de la serpiente. Cuántos turnos en promedio son necesarios para terminar el juego? Cuál es la probabilidad de que un jugador que ha alcanzado el cuadrado del medio complete el juego sin volver a la casilla 1? 5. ([2], p.19) Sea {X n } n 0 una cadena de Markov homogénea que toma valores en el espacio de estados S = {0, 1,...}, con probabilidades de transición dadas por ( ) 2 i + 1 P 0,1 = 1, P i,i+1 + P i,i 1 = 1, P i,i+1 = P i,i 1, i 1. i Demostrar que, si X 0 = 0, entonces la probabilidad de que X n 1 para todos n 1 es 6 π 2. Bibliografía [1] Nicolas Privault (2013). Understanding Markov Chains. Examples and Applications, Springer Undergraduate Mathematics Series, Springer. [2] James R. Norris (1997). Markov Chains, Cambridge Series on Statistical and Probabilistic Mathematics, Cambridge University Press. 6
PROCESOS ESTOCÁSTICOS. Primera Prueba. 1
08513. PROCESOS ESTOCÁSTICOS. Primera Prueba. 1 Problema 1. Sea {Y n } una sucesión de variables aleatorias independientes e idénticamente distribuidas con distribución P {Y n = k} = 1 N + 1 Sea X 1 =
Procesos estocásticos. Primera Prueba 1
08513. Procesos estocásticos. Primera Prueba 1 Problema 1. El número de partículas en una región del espacio evoluciona de la siguiente manera: en cada unidad de tiempo, cada partícula contenida en ella
Maestría en Bioinformática Probabilidad y Estadística: Clase 4
Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff [email protected] Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios
Guía de Estudio del Tema 3. Cadenas de Markov. Matriz de Transición de un paso.
Universidad de Los Andes Facultad de Ciencias Económicas y Sociales Escuela de Estadística Procesos Estocásticos Sección 0 - A-06 Prof. Douglas Rivas Guía de Estudio del Tema 3. Cadenas de Markov. Matriz
Revisión - soluciones. lunes 9 de octubre de 2017
Introducción a los Procesos Estocásticos Curso 7 Revisión - soluciones lunes 9 de octubre de 7. Ejercicio (5 puntos) Considere una cadena de Markov homogénea {X n } n con espacio de S = {,,, } y matriz
Estadística Bayesiana
Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.
Procesos Estocásticos I
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO Facultad de Ciencias Plan de estudios de la Licenciatura en Actuaría Procesos Estocásticos I Clave 0630 Modalidad Semestre 5 Créditos 10 Área Campo de conocimiento
Práctica 5 Martingalas a tiempo discreto
Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.
Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
UNIVERSIDAD DE MANAGUA Al más alto nivel
UNIVERSIDAD DE MANAGUA Al más alto nivel Investigación de Operaciones Encuentro #7 Tema: Cadenas de Markov Prof.: MSc. Julio Rito Vargas A. Grupo:CCEE y ADMVA /26 Objetivos: Aplicar la teoría fundamental
CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
CONFERENCIA TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria
PROCESOS ESTOCÁSTICOS
Capítulo 10 Cadenas de Markov PROCESOS ESTOCÁSTICOS Una sucesión de observaciones X 1,X 2,... se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero
Escuela Superior Politécnica del Litoral Facultad de Ciencias Naturales y Matemáticas Departamento de Matemáticas
acultad de Ciencias Naturales y Matemáticas undamentos de Computación Parcial II Término 005-006. Diciembre 06, 005 Tema 4 (5 puntos) Para una nueva versión del juego Escaleras y Serpientes se desea disponer
CONFERENCIA TEMA: CADENAS DE MARKOV
Prof.: MSc. Julio Rito Vargas Avilés CONFERENCIA TEMA: CADENAS DE MARKOV Agenda: Proceso estocástico Concepto de Cadena de Markov Clasificación de estados de una CM y ejemplos Distribución estacionaria
Cadenas de Markov.
Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estado. Cadenas
Scientia Et Technica ISSN: Universidad Tecnológica de Pereira Colombia
Scientia Et Technica ISSN: 0122-1701 scientia@utpeduco Colombia VALENCIA ANGULO, EDGAR ALIRIO; MESA, FERNANDO PROPIEDADES DE LA MATRIZ Pn EN UNA CADENA DE MARKOV Scientia Et Technica, vol XIV, núm 39,
EJERCICIOS. 1 Repaso de probabilidad
EJERCICIOS 1 Repaso de probabilidad 1. (El problema del cumpleaños) Supongamos que la distribución del día de cumpleaños es uniforme, es decir, que cada día del año tiene probabilidad 1/365 de ser el cumpleaños
ICM Fundamentos de Computación
Aleatorios y Tipos de Variables Aleatorios Para simular un número de azar, por ejemplo el obtenido al lanzar un dado, se recurre al concepto de números aleatorios. Un número aleatorio se define como un
Cadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones
Tiempo Continuo Modelado y Análisis de Redes de Telecomunicaciones 1 Agenda en tiempo continuo Ergodicidad de la cadena Ejemplo: Líneas Telefónicas página 2 CMTC Consideremos ahora los procesos de Markov
PROCESOS DE MARKOV DE TIEMPO CONTINUO
CHAPTER 3 PROCESOS DE MARKOV DE TIEMPO CONTINUO 3.1 Introducción En este capítulo consideramos el análogo en tiempo continuo de las Cadenas de Markov de tiempo discreto. Como en el caso de tiempo discreto,
Cadenas de Markov. Su importancia obedece a dos razones: descritos con ellas. Cadenas de Markov
Cadenas de Markov Hace más de un siglo se escribió el primer trabajo seminal sobre Cadenas de Markov y aún siguen siendo un instrumento tremendamente útil de modelación estocástica. Su importancia obedece
Introducción al Tema 7. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.
Introducción al Tema 7 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos
Distribuciones de Probabilidad
Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica
36 } Partiendo de nuestros datos. La media es: 36, 3 36, 5 36, 4 36, 6. Partiendo del dato obtenido de la media. La varianza es: σ 2 = 35 6 = 5.
Tarea 7 Variables Aleatorias Discretas En los ejercicios del al 7 encontrar: a) La función de distribución variables, b) La media y varianza de la variable.. Considere el experimento de lanzar dos dados
TALLER 1 DE ALGEBRA LINEAL Y GEOMETRÍA INGENIERÍA AMBIENTAL - UNIVERSIDAD DE CÓRDOBA FACTORIZACIÓN LU Y CADENAS DE MARKOV
TALLER 1 DE ALGEBRA LINEAL Y GEOMETRÍA INGENIERÍA AMBIENTAL - UNIVERSIDAD DE CÓRDOBA FACTORIZACIÓN LU Y CADENAS DE MARKOV DESCRIPCIÓN: En el siguiente trabajo se mostrarán algunos métodos para encontrar
5. Se lanza un dado de seis caras numeradas de 1 al 6 dos veces consecutivas.
1. Las probabilidades de aprobar los exámenes de Historia, Lengua e Inglés son, para un alumno determinado: 2/3, 4/5 y 3/5 respectivamente. Obtener las probabilidades de: a) Suspender las tres asignaturas.
Introducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Cadenas de Markov. José Antonio Camarena Ibarrola
Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el
Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
Probabilidades y Estadística (M) Práctica 2 (2 cuatrimestre 2003) Paseos al azar y Probabilidad Condicional
Probabilidades y Estadística (M) Práctica 2 (2 cuatrimestre 2003) Paseos al azar y Probabilidad Condicional 1. Sean x>0 e y dos enteros. Un paseo al azar (s 0,s 1,...,s x ) del origen al punto (x, y) es
Maestría en Bioinformática Probabilidad y Estadística: Clase 8
Maestría en Bioinformática Probabilidad y Estadística: Clase 8 Gustavo Guerberoff [email protected] Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Reversión temporal Cadena
PROBABILIDAD Relación de problemas 1: Fundamentos de Probabilidad
PROBABILIDAD Relación de problemas 1: Fundamentos de Probabilidad 1. Una urna contiene 5 bolas numeradas del 1 al 5. Calcular la probabilidad de que al sacar dos bolas la suma de los números sea impar
Definición de probabilidad
Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total
SEGUNDO NIVEL. Problema 3 Sea ABCD un paralelogramo de lados AB 10 y BC 6. Las circunferencias c
PRIMER NIVEL PRIMER DÍA Problema Hay discos negros y discos blancos distribuidos en 3 pilas. En cada pila los colores se alternan de la siguiente manera, contando desde abajo: negros, 0 blancos, 9 negros,
FORMULARIO CADENAS DE MARKOV
FORMULARIO CADENAS DE MARKOV Fuente: F. Hillier - G. Lieberman: Introducción a la investigación de operaciones. Sexta edición. Ed. Mc-Graw Hill. Proceso estocástico. Un proceso estocástico es una colección
PROBABILIDAD SUCESOS ALEATORIOS
16 Lo fundamental de la unidad Nombre y apellidos:... Curso:... Fecha:... PROBABILIDAD SUCESOS ALEATORIOS Un suceso aleatorio es aquel en cuya realización influye... El conjunto de todos los casos de una
INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 6)
TEMA Nº 6 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD OBJETIVOS DE APRENDIZAJE: Ser capaz de definir correctamente una o más variables aleatorias sobre los resultados de un experimento aleatorio y determinar
PROBABILIDADES Y DISTRIBUCIONES
PROBABILIDADES Y DISTRIBUCIONES 1. Supongamos que se lanza una moneda cuyo peso ha sido alterado de manera que P (C) = 2/3 y P (S) = 1/3. Si aparece cara, entonces selecciona un número al azar del 1 al
Procesos de ramificación y árboles. aleatorios. Juan Carlos Pardo Millán. CIMAT, Guanajuato 1/ 26
Procesos de ramificación y árboles aleatorios. Juan Carlos Pardo Millán CIMAT, Guanajuato 1/ 26 Progama: Preliminares de probabilidad. Cadenas de Markov. Caminatas aleatorias. Procesos de Bienaymé-Galton-Watson.
Maestría en Bioinformática Probabilidad y Estadística: Clase 10
Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff [email protected] Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios
El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS
Scientia et Technica Año XIV No 39 septiembre de 2008 Universidad Tenològica de Pereira ISSN 0122-1701 394 El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS The concept of the conditional expectation
Procesos estocásticos Cadenas de Márkov
Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el
Introducción a los Procesos Estocásticos
Introducción a los Procesos Estocásticos La teoría de los procesos estocásticos se centra en el estudio y modelización de sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas
Redes de Petri Estocásticas
Redes de Petri Estocásticas Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Definición: Una red de Petri Estocástica es una red de Petri con transiciones con
5. LAS DISTRIBUCIONES MÁS IMPORTANTES
5. LAS DISTRIBUCIONES MÁS IMPORTANTES Gauss y la distribución normal Objetivos Introducir las distribuciones más importantes y sus usos. Para leer Podéis ver los mini-videos de Emilio Letón y su equipo
APUNTES DE PROBABILIDAD Y ESTADISTICA ING. GUILLERMO CASAR MARCOS
CAPITULO III VARIABLES ALEATORIAS. DEFINICION.- UNA VARIABLE ALEATORIA ES UNA FUNCION DE LOS VALORES DEL ESPACIO MUESTRAL. ESTO ES, EL DOMINIO DE DEFINICION DE UNA VARIABLE ALEATORIA ES UN ESPACIO MUESTRAL,
Simulación computacional de cadenas de Markov
Simulación computacional de cadenas de Markov Presentación basada en el capítulo 3 de Finite Markov Chains and Algorithmic Applications (Häggström, 2002) Sebastián Castro Seminario de Probabilidad y Estadística
Cadenas de Markov Cálculos probabilísticos con RCommander
Sesión 3 Cadenas de Markov. En la teoría de la probabilidad, se conoce como cadena de Markov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende
Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov
Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Procesos estocásticos. Definición
Procesos estocásticos Definición http://humberto-r-alvarez-a.webs.com Definición de proceso estocástico Estudio del comportamiento de una variable aleatoria a lo largo del tiempo El ajuste de cualquier
CAPITULO 6 DISTRIBUCIONES MUESTRALES
CAPITULO 6 DISTRIBUCIONES MUESTRALES MUESTRAS ALEATORIAS PARA DEFINIR UNA MUESTRA ALEATORIA, SUPONGAMOS QUE x ES UNA VARIABLE ALEATORIA CON DISTRIBUCIÓN DE PROBABILIDADA f(x). EL CONJUNTO DE n OBSERVACIONES
Transformaciones y esperanza
Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es
Martingalas. Procesos Estocásticos. Marzo 2012 UC3M
Martingalas Procesos Estocásticos UC3M Marzo 2012 Martingalas Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos
Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico
Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos
VARIABLES ALEATORIAS Variable: Característica de los individuos u objetos
1 Definiciones VARIABLES ALEATORIAS Variable: Característica de los individuos u objetos Aleatoria: Azar 1. Una variable aleatoria ( v.a.) es una función que asigna un número real a cada resultado en el
CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico
PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar
Unidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Procesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
10.2 Sucesiones aritméticas
f1 0.1 0 f 0.9 0 a n a n a n 10. Sucesiones aritméticas En esta sección y la siguiente consideramos dos tipos especiales de sucesiones: aritméticas y geométricas. El primer tipo se puede definir como sigue.
1. Título de la actividad: 2. Nivel educativo: 3. Objetivos matemáticos: 4. Material: 5. Desarrollo del juego: 6. Organización: 7.
Anexo d: ACTIVIDADES LÓGICO- MATEMÁTICAS Plantilla: 1. Título de la actividad: 2. Nivel educativo: 5. Desarrollo del juego: 6. Organización: 1. Titulo de la actividad: Adivina un número I. 2. Nivel educativo:
DISTRIBUCIONES DE PROBABILIDAD
DISTRIBUCIONES DE PROBABILIDAD VARIABLE ALEATORIA Una variable x valuada numéricamente varía o cambia, dependiendo del resultado particular del experimento que se mida. Por ejemplo, suponga que se tira
08231 Cálculo de probabilidades y Estadística. Primera prueba 1
08231 Cálculo de probabilidades y Estadística. Primera prueba 1 Problema 1. Una urna contiene 9 tarjetas bicolores. Entre ellas hay una blanca y negra, otra blanca y roja, otra blanca y azul, otra negra
el número de resultados experimentales sin listarlos. Las reglas de conteo son: Experimento de varias etapas, Combinaciones y Permutaciones.
Este material muestra las reglas de conteo que son útiles para identificar y contar los resultados experimentales para posteriormente asignarles probabilidades. La regla de conteo para experimentos de
Solemne 2. CII Modelos Estocásticos 28 de junio Profesores: Basso, Batarce, Feres y Varas
CII753 - Modelos Estocásticos 8 de junio 7 Profesores: Basso, Batarce, Feres y Varas Solemne P (a) Un conocido mago del Paseo Ahumada ha hecho una respetable fortuna con el siguiente juego de azar: en
Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov
Tratamiento de Señales Laboratorio 1 (2h) Cadenas de Markov Curso 2011/2012 Materiales: (a) Ordenadores equipados con Matlab Objetivos: (a) Estudiar las cadenas de Markov como una familia de secuencias
Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta
Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta Matemática Discreta - CC3101 Profesor: Pablo Barceló P. Barceló Matemática
PROBABILIDADES Trabajo Práctico 3
PROBABILIDADES Trabajo Práctico 3 1. Se arroja un dado dos veces. Calcular la probabilidad de que la suma de los puntos sea 7 dado que: i. la suma es impar. ii. la suma es mayor que 6. iii. el resultado
Probabilidad condicional
Probabilidades y Estadística (M) Práctica 2: Probabilidad Condicional e Independencia 2 cuatrimestre 2008 Tiempo estimado: 3 clases Probabilidad condicional 1. Hay 3 cajas A, B y C con 20 piezas cada una,
1 La Caminata Aleatoria.
1 La Caminata Aleatoria. La caminata aleatoria es un modelo probabilístico clásico que tiene aplicaciones en biología, nanzas, teoría de colas, control, etc [7]. Suponer que una partícula se mueve a lo
Procesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Cálculo de Probabilidades y Estadística. Primera prueba. 1
08231. Cálculo de Probabilidades y Estadística. Primera prueba. 1 Problema 1. Se dispone de cuatro dados: A con 4 cuatros y 2 ceros; B con 6 treses; C con 4 doses y 2 seises y D con 3 cincos y 3 unos.
UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID MATERIA: MATEMÁTICAS APLICADAS A LAS CC. SOCIALES
UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID PRUEBA DE ACCESO A ESTUDIOS UNIVERSITARIOS (LOGSE) (Curso 2004-2005) MATERIA: MATEMÁTICAS APLICADAS A LAS CC. SOCIALES MODELO DE PRUEBA INSTRUCCIONES GENERALES
4. NÚMEROS PSEUDOALEATORIOS.
4. NÚMEROS PSEUDOALEATORIOS. En los experimentos de simulación es necesario generar valores para las variables aleatorias representadas estas por medio de distribuciones de probabilidad. Para poder generar
Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:
Probabilidad Condicional Teorema de Bayes para probabilidades condicionales: Definición: Sea S el espacio muestral de un experimento. Una función real definida sobre el espacio S es una variable aleatoria.
Distribución Binomial
Profesor Alberto Alvaradejo Ojeda 1 de octubre de 15 1. Distribución Binomial La distribución binomial es unas de las distribuciones de probabilidad discreta más importantes. Recordemos que en una distribución
INSTITUTO TECNOLOGICO METROPOLITANOCadenasNovember MarkovEjercicios 6, / 10
INSTITUTO TECNOLOGICO METROPOLITANO Cadenas de Markov Ejercicios Wbaldo Londoño November 6, 2012 INSTITUTO TECNOLOGICO METROPOLITANOCadenasNovember MarkovEjercicios 6, 2012 1 / 10 Ejercicio 1 En un país
SEGUNDO EXAMEN DE PROBABILIDAD Y ESTADÍSTICA (LISTA DE EJERCICIOS 1)
SEGUNDO EXAMEN DE PROBABILIDAD Y ESTADÍSTICA (LISTA DE EJERCICIOS 1) II. DISTRIBUCIONES DE PROBABILIDAD DE VARIABLES ALEATORIAS DISCRETAS. VARIABLES ALEATORIAS DISCRETAS Sección I. Resuelva los ejercicios
Variables Aleatorias Discretas
Profesor Alberto Alvaradejo Ojeda 9 de septiembre de 2015 Índice 1. Variable aleatoria 3 1.1. Discretas...................................... 3 1.2. Continuas..................................... 3 1.3.
Probabilidad 1. Tarea 2
Probabilidad 1. Tarea 2 Prof. Daniel Cervantes Filoteo Ayud. Fernando Rojas Linares Instrucciones: Resuelva los siguientes problemas justificando sus respuestas. Entregue sus resultados, por equipos de
2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO
2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO Cadenas de Markov 10 En la primera parte del capítulo se estudian las probabilidades condicionales de transición -definidas en (l5) y (16) - e incondicionales
Tema 5: Modelos probabilísticos
Tema 5: Modelos probabilísticos 1. Variables aleatorias: a) Concepto. b) Variables discretas y continuas. c) Función de probabilidad (densidad) y función de distribución. d) Media y varianza de una variable
Definición. P(X t+s = j X s = i, X sn = i n,..., X s0 = i 0 ) = P(X t+s = j X s = i)
Definición Cadenas de Markov a tiempo continuo Para extender la propiedad de Markov a tiempo continuo se requiere definir la probabilidad condicional dado que conocemos el proceso en un intervalo continuo
Simulaciones y problemas probabilísticos con GeoGebra
Simulaciones y problemas probabilísticos con GeoGebra José Luis Álvarez García 1 Resumen Durante mucho tiempo, en los problemas probabilísticos escolares se ha puesto el énfasis casi exclusivamente en
PROBABILIDAD Y ESTADÍSTICA
PROBABILIDAD Y ESTADÍSTICA Pablo Torres Facultad de Ciencias Exactas, Ingeniera y Agrimensura - Universidad Nacional de Rosario Unidad 2: Probabilidad INTRODUCCIÓN Al lanzar un dado muchas veces veremos
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 1. Sea X una v.a. con función de densidad { 0,75 (1 x f X (x) = 2 ) 1 x 1 0 en otro caso. a) Verificar que f X es realmente una función de densidad. b) Calcular:
