Simulación. La mayoría de los procesos de simulación tiene la misma estructura básica:

Documentos relacionados
Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Método de Box Muller. Método Polar Generación de eventos en Procesos de Poisson. Método de Box-Muller. Métodos de generación de v. a.

Estimación por intervalos

Generación de variables aleatorias continuas Método de rechazo

VARIABLES ALEATORIAS CONTINUAS

Modelos de distribuciones discretas y continuas

Técnicas Cuantitativas para el Management y los Negocios I

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

Variables aleatorias continuas y Teorema Central del Limite

Método Polar para generación de variables normales Generación de eventos en Procesos de Poisson

GENERACION DE NUMEROS ALEATORIOS Y VARIABLES ALEATORIAS

Distribuciones de probabilidad bidimensionales o conjuntas

Generación de números aleatorios con distribución uniforme

Ejercicio 1. Ejercicio 2

Generación de Variables Aleatorias. UCR ECCI CI-1453 Investigación de Operaciones Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Generación de variables aleatorias continuas

Distribuciones de probabilidad con R Commander

Familias de distribuciones

Transformaciones y esperanza

Generación de Variables Aleatorias

Hoja 4 Variables aleatorias multidimensionales

Lista de Ejercicios (Parte 1)

Generación de variables aleatorias continuas Método de la transformada inversa

Introducción a la simulación de procesos estocásticos.

GENERACION DE NUMEROS ALEATORIOS Y VARIABLES ALEATORIAS

Ejercicios para auto evaluación Variables continuas y Teorema de Límite Central

Momentos de Funciones de Vectores Aleatorios

Generación de variables aleatorias continuas Método de la transformada inversa

Distribución de Probabilidad

PROBABILIDAD E INFERENCIA ESTADÍSTICA TEMA 3: DISTRUBUCIONES DE PROBABILIDAD CONTINUA

Práctica 4: Variables Aleatorias y Simulación

Esperanza Condicional

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22

Estadística Bayesiana

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)

Cuáles son las características aleatorias de la nueva variable?

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

Relación de Problemas. Tema 5

UNIVERSIDAD DE ATACAMA

Tema 8: Métodos de cadenas de Markov Monte Carlo

Generación de variables aleatorias discretas Método de la Transformada Inversa

Tema 4: Probabilidad y Teoría de Muestras

Generación de variables aleatorias discretas Método de la Transformada Inversa

CO3121: Problemario Marzo 2005.

Análisis de datos Categóricos

Métodos Estadísticos de la Ingeniería Práctica 5: Distribuciones de Probabilidad y el Teorema Central del

Principios de reducción de la data

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Unidad 3. Probabilidad

ESTADISTICA GENERAL. PRINCIPALES DISTRIBUCIONES DISCRETAS Profesor: Celso Celso Gonzales

Variables aleatorias continuas, TCL y Esperanza Condicional

Ejercicios de Simulación

Percentiles. El percentil p de una variable aleatoria X es número más pequeño, que denominaremos x u que cumple:

PROBABILIDADES Trabajo Práctico 5. 0 si x<0. x3 si 0 x<2 1 si x 2

Estadística Bayesiana

Introducción a los Procesos de Poisson *

VARIABLES ALEATORIAS CONTINUAS

Tema 6: Modelos de probabilidad.

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Variables Aleatorias y Distribución de Probabilidades

Selección de distribuciones de probabilidad

Estadística Grupo V. Tema 10: Modelos de Probabilidad

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 5 Simulación

Definición Una hipótesis es una afirmación acerca de un parámetro.

2 Modelos de probabilidad discretos sobre R

INTRODUCCION A LA SIMULACION DE MODELOS. Simulación es la descripción de un sistema a través de modelos que se pueden aplicar a varias disciplinas.

Modelos Básicos de Distribuciones Discretas y Continuas

MODELOS DE SIMULACIÓN ESTADÍSTICOS CLASE 4: DISTRIBUCIÓN t, CHI-CUADRADA y EXPONENCIAL PROFESOR: OSCAR SAAVEDRA ANDRÉS DURANGO.

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Trabajo sobre Simulación de Procesos Poisson y Distribuciones Multivariadas

5. TEOREMA FUNDAMENTAL: Formulación y Demostración. Jorge Eduardo Ortiz Triviño

ENUNCIADO y SOLUCIONES. Problema 1

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3

B0. Distribuciones de probabilidad

Distribuciones de probabilidad más usuales

GRADO de TELECOMUNICACIONES

Práctica 4 TEOREMA CENTRAL DEL LÍMITE

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Selección de distribuciones de probabilidad

Modelos de distribuciones discretas y continuas

Cálculo de Probabilidades II Preguntas Tema 2

Algunas observaciones sobre las inconsistencias del uso de la aproximación normal en intervalos de confianza cuando las observaciones son Bernoullis

Tema 5: Modelos probabilísticos

Variables aleatorias: El caso continuo. Random variables: The continuous case. Rincón de la Bioestadística

IG23 Ampliació d Estadística. ETIG. Curs 2005/06 1

Estimación por intervalo del parámetro de la distribución de Poisson con una sola observación

Distribuciones de probabilidad Discretas

Tema 2 Modelos de probabilidad

Clase 3: Vectores gaussianos *

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Transcripción:

Simulación La mayoría de los procesos de simulación tiene la misma estructura básica: 1 Indentificar una variable de interés y escribir un programa para simular dichos valores Generar una muestra independiente e idénticamente distribuidas 1, L, n con la misma distribución de 3 Estimar E [ ], usando, y evaluar la exactitud de la estimación usando intervalos de confianza Observación: Todas las variables aleatorias pueden ser generadas manipulando variables aleatorias con distribución uniforme(0,1) Simulando variables aleatorias discretas R con función de probabilidad acumulada F y función de probabilidad f El proceso consiste en tomar una variable aleatoria uniforme y obtener una variable aleatoria Sea una variable aleatoria discreta con = { 0,1,,L Paso 1: Generar u ~ uniforme(0,1) Paso : Hacer x = 0 Paso 3: Mientras F ( x) < u, x = x + 1 Ejemplo: Generar un número aleatorio de la distribución binomial ( n = 8, p = 08) binom <- function(n,p) { x <- 0 F <- pbinom(x, size = n, prob = p) while (F<u) { x <- x+1 F <- pbinom(x, size = n, prob = p)

Ejemplo: Generar 10 números aleatorios de la distribución binomial ( n = 8, p = 05) simulbinom <- function(m, n, p) { i <- 1 while (i <= m) { binom(n, p) i <- i + 1 > simulbinom(10, n = 8, p = 05) Secuencia de eventos independientes Para variables aleatorias que se definen usando una secuencia de ensayos independientes (binomial, geométrica y binomial negativa) se tienen métodos alternativos Dada una variable aleatoria con distribución uniforme(0,1) se puede generar una variable aleatoria de Bernoulli con parámetro p usando: Paso 1: Generar u ~ uniforme(0,1) Paso : Si u < p entonces x = 1, en caso contrario x = 0 bernoulli <- function(p) { x <- 0 if (u<p) x <- x+1 print(u) Luego, para generar una variable aleatoria binomial con parámetros n y p se usa: Paso 1: x = 0 Paso : Repetir n veces lo siguiente: Paso 1: Generar u ~ uniforme(0,1) Paso : Si u < p entonces x = x + 1

simulbinom <- function(m, n, p) { i <- 1 while (i<=m) { x <- sum(runif(n)<p) i <- i+1 > simulbinom(m = 10,n = 8,p = 05) [1] Simulando variables aleatorias continuas Metodo de inversión Suponga que se tiene U ~ uniforme(01) y se desea simular una variable aleatoria continua con función de distribución acumulada F Sea Y = F ( u) entonces se tiene: F ( y) = Pr( Y y) = Pr F ( u) ( y) = Pr U F ( y) ( ) F ( y) Y = es decir, que Y tiene la misma distribución de Luego, si se simula una variable aleatoria uniforme(0,1) entonces puede simularse cualquier variable aleatoria continua para la que se conoce F Este método es llamado método de la trasformación inversa Otra forma de establecer este resultado es que para toda variable aleatoria continua, x uniforme(0,1) F ( ) ~ Ejemplo: Si ~ exponencial con parámetro λ entonces su función de densidad es f x = λ exp λx, x > 0 y además ( ) { F ( x) 0 = 1 exp { λ x x < 0 x 0 Tomando y = 1 exp{ λx entonces la función inversa es x log( 1 y) = F ( y) = λ Luego, por el método de la transformación inversa se genera una variable aleatoria ~ 1 λ log 1 u con u ~ uniforme(0,1) exponencial ( λ ) usando ( )

simulexp <- function(m, rate) { data <- rep(0,m) for (i in 1:m) { x <- -log(1 - u) / rate data[i] <- x #print(data) hist(data) > simulexp(m = 1000, rate = 1/5)

Simulando normales Si ~ N( 0,1) Z entonces µ σz ~ N( µ, σ ) +, luego solo es necesario simular una variable aleatoria con distribución normal estándar El resultado anterior sugiere una aproximación para simular la distribución normal usando el teorema central del límite Recordar que si U ~ uniforme ( 0,1) entonces E [ U ] = 1 y Var [ U ] = 1 1 tal que si U1, L, U1 son variables aleatorias independientes con distribución uniforme(0,1) entonces Z 1 = U i i= 1 6 tiene distribución aproximadamente normal estándar Algoritmo de Box-Muller Suponga P (, Y ) distribución ( 0,1) =, donde e Y son variables aleatorias independientes con N entonces se dice que P tiene una distribución normal estándar bivariada El algoritmo de Box-Muller trabaja simulando P en coordenadas polares ( R,θ ) y luego transformando los valores hacia las coordenadas cartesianas usando = R cosθ e Y = sinθ Se puede probar que ~ 1 / y ~ R Lo anterior permite usar el siguiente algoritmo: R exponencial ( ) θ uniforme (,π ) 1 Generar U 1 y U ambas con distribución uniforme(0,1) Calcular π U1 R = log U 3 Obtener = R cosθ e Y = sinθ θ = y ( ) 0 independiente de