Transformaciones y esperanza

Documentos relacionados
Familias de distribuciones

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Modelos Básicos de Distribuciones Discretas y Continuas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Curso de Probabilidad y Estadística

5. TEOREMA FUNDAMENTAL: Repaso Variables Aleatorias. Jorge Eduardo Ortiz Triviño

Introducción al Diseño de Experimentos.

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Momentos de Funciones de Vectores Aleatorios

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Variables aleatorias múltiples

Variables Aleatorias y Distribución de Probabilidades

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3

Modelos de distribuciones discretas y continuas

Ma34a Probabilidades y Procesos Estocásticos 21 de Noviembre, Resumen No. 3

3. Variables aleatorias

Generación de variables aleatorias discretas Método de la Transformada Inversa

Generación de variables aleatorias continuas Método de la transformada inversa

Variables aleatorias continuas y Teorema Central del Limite

Tema 6: Modelos de probabilidad.

Probabilidad para una V.A. Continua. P( a X b) = f ( x)

Cálculo de Probabilidades II Preguntas Tema 2

Variables aleatorias

Generación de variables aleatorias discretas Método de la Transformada Inversa

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)

Lista de Ejercicios (Parte 1)

Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración

Variables aleatorias continuas, TCL y Esperanza Condicional

Definición de variable aleatoria

Examen de Estadística Grado en Ingeniería de Telecomunicación

Generación de variables aleatorias continuas Método de la transformada inversa

Generación de variables aleatorias continuas Método de la transformada inversa

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

I. Distribuciones discretas

Selección de distribuciones de probabilidad

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Definición Una hipótesis es una afirmación acerca de un parámetro.

DISTRIBUCIONES DE PROBABILIDAD

Funciones de Variables Aleatorias. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Tablas de Probabilidades

2 Modelos de probabilidad discretos sobre R

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

Variables aleatorias unidimensionales

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

0 en otro caso. P (X > 0) P ( 0.5 < X < 0.5) P ( X > 0.25) x 3 si 0 x < 2. 1 si 2 x P(X 1) P(0.5 X 1) P(0.5 < X 1 X < 1) f X (x) = (1+αx) 2

Tema 3:Introducción a las variables aleatorias PROBLEMAS PROPUESTOS. 2. La función de densidad de la variable aleatoria X viene dada por la expresión

Dónde estamos? VARIABLES ALEATORIAS

Tema 2: Variables Aleatorias Unidimensionales

INGENIERO EN COMPUTACIÓN DISTRIBUCIONES DE PROBABILIDAD CONTINUA ELABORÓ: M. EN C. LUIS ENRIQUE KU MOO FECHA: AGOSTO DE 2017

Estadística I Tema 5: Modelos probabiĺısticos

Tema 5 Modelos de distribuciones de Probabilidad

Procesos estocásticos

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74

ESTADÍSTICA I. A continuación se presentan los Modelos Probabilísticos Continuos más importantes.

TEMA 2.- VARIABLES ALEATORIAS

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Unidad 3. Probabilidad

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadística y Probabilidad

Variables aleatorias

Estimación por intervalos

Part I. Momentos de una variable aleatoria. Esperanza y varianza. Modelos de Probabilidad. Mario Francisco. Esperanza de una variable aleatoria

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

GENERACION DE NUMEROS ALEATORIOS Y VARIABLES ALEATORIAS

Propiedades en una muestra aleatoria

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

UNIVERSIDAD TECNICA PARTICULAR DE LOJA ESTADISTICA Y PROBABILIDAD ENSAYO N 4

Cálculo de Probabilidades y Estadística. Segunda prueba. 1

Distribución de Probabilidad

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Modelos de distribuciones discretas y continuas

UNIDAD 4: DISTRIBUCIÓN DE PROBABILIDAD

VARIABLES ALEATORIAS CONTINUAS

Principios de reducción de la data

Variables aleatorias. Descripción breve del tema. Objetivos. Descripción breve del tema. Tema 4

Notas sobre convergencia y funciones generatrices

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números

VARIABLES ALEATORIAS CONTINUAS

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

Técnicas Cuantitativas para el Management y los Negocios I

Ejercicios de Variables Aleatorias

Estadística aplicada al Periodismo

Notas de clase. Prof. Nora Arnesi

PROBABILIDAD E INFERENCIA ESTADÍSTICA TEMA 3: DISTRUBUCIONES DE PROBABILIDAD CONTINUA

Estadís4ca y Métodos Numéricos Tema 2. Variable Aleatoria

Tema 6 Algunos modelos de distribuciones continuas

Repaso de Teoría de la Probabilidad

Tema 6: Características numéricas asociadas a una variable aleatoria. Función generatriz de momentos

Transcripción:

Capítulo 3 Transformaciones y esperanza 3.1. Introducción Por lo general estamos en condiciones de modelar un fenómeno en términos de una variable aleatoria X cuya función de distribución acumulada es F X (x). La pregunta es si estaremos también en condiciones de estudiar el comportamiento de aquellas variables aleatorias que son trasformaciones de X. En este capítulo se estudian algunas técnicas que permiten conocer el comportamiento probabilístico de Y = g(x). 3.2. Transformaciones para variables aleatorias Si X es una variable aleatoria con función de distribución acumulada F X (x) entonces cualquier función de X es también una variable aleatoria. Si se define Y = g(x) es posible describir el comportamiento probabilistico de Y en términos de X. Formalmente y = g(x) define un mapa desde el espacio muestral de X al espacio muestral de Y. Es decir: g (x) : X Y Se asocia a g un mapa inverso, denotado por g 1, definido por: g 1 (A) = {x X : g (x) A} (3.2.1) 28

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 29 Para cualquier conjunto A Y: 3.2.1. Caso discreto Pr (Y A) = Pr (g (X) A) = Pr ({x X : g (x) A}) (3.2.2) = Pr ( X g 1 (A) ) Si X es una variable aleatoria discreta entonces X es numerable. El espacio muestral para Y = g(x) es: Y = {y : y = g (x), x X } el cual también es un conjunto numerable. Usando la ecuación 3.2.2 la función de probabilidad de Y es: f Y (y) = Pr (Y = y) = x g 1 (y) f X (x) Ejemplo 3.2.1 Sea X BI (n, p). Hallar la función de probabilidad de Y = g (X) = n X. Ejemplo 3.2.2 Sea X una variable aleatoria con función de probabilidad: f X (x) = 1 2n x = ±1, ±2,, ±n Hallar la función de probabilidad de Y = g (X) = X 2. 3.2.2. Caso continuo La función de distribución acumulada de Y = g (X) es: F Y (y) = Pr (Y y) = Pr (g (X) y) = Pr ({x X : g (x) y}) ˆ (3.2.3) = f X (x) dx {x X :g(x) y}

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 30 Es sencillo trabajar con funciones g (x) que son monótonas, es decir aquellas que satisfacen alguna de las siguientes relaciones: u > v g (u) > g (v) (creciente) o u < v g (u) > g (v) (decreciente) Figura 3.1: Función monótona creciente (a) y decreciente (b) x^3 20 10 0 10 20 log(x) 1 0 1 2 3 3 2 1 0 1 2 3 (a) 0.0 0.5 1.0 1.5 2.0 2.5 3.0 (b) Si la transformación x g (x) es monótona entonces es uno a uno y sobreyectiva. Si g es creciente: {x X : g (x) y} = { x X : g 1 (g (x)) g 1 (y) } y usando 3.2.3, se tiene que: = { x X : x g 1 (y) } (3.2.4) ˆ F Y (y) = f X (x) dx = {x X :x g 1 (y)} ˆ g 1 (y) f X (x) dx = F X ( g 1 (y) )

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 31 Si g es decreciente, entonces: {x X : g (x) y} = {x X : g 1 (g (x)) g 1 (y)} = {x X : x g 1 (y)} (3.2.5) se tiene que: F Y (y) = ˆ g 1 (y) f X (x) dx = 1 F X ( g 1 (y) ) Se resumen los resultados anteriores en el siguiente teorema. Teorema 3.2.1 Sea X una variable aleatoria con función de distribución acumulada F X (x). Se define Y = g (X) y los espacios muestrales X y Y. a. Si g es una función creciente sobre X, entonces F Y (y) = F X (g 1 (y)) para y Y. b. Si g es una función decreciente sobre X, entonces F Y (y) = 1 F X (g 1 (y)) para y Y. Ejemplo 3.2.3 Suponga que X tiene distribución uniforme en el intervalo (0,1). Demostrar que Y = g (X) = log X tiene distribución exponencial con parámetro β = 1. En R se pueden generar números aleatorios sobre la distribución uniforme y luego obtener un histograma para los valores transformados según g(x). > set.seed(200) > x <- runif(n=1000, min=0, max=1) > y <- -log(x) > hist(y, freq=f, xlab="", ylab="", main="")

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 32 Figure 3.2: Histograma para Y = log X 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0 2 4 6 8 En el ejemplo anterior la función de densidad de Y se obtiene derivando su función de distribución acumulada. La expresión resultante se presenta en el siguiente teorema. Teorema 3.2.2 Sean X con función de densidad f X (x) y Y = g (X) donde g es una función monótona. Suponga que f X (x) es continua sobre X y que g 1 (y) tiene una derivada continua sobre Y. Entonces la función de densidad de Y es: f X (g 1 (y)) d dy f Y (y) = g 1 (y) y Y (3.2.6) 0 de otro modo

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 33 Demostración: Usando el teorema 3.2.1 y la regla de la cadena se tiene: f Y (y) = d dy F Y (y) = f X (g 1 (y)) d dy g 1 (y) f X (g 1 (y)) d dy g 1 (y) si g es creciente si g es decreciente Ejemplo 3.2.4 Sea X W(γ, β) donde γ > 0. Hallar la distribución de Y = g (X) = X γ. En muchas aplicaciones la función g podría no ser creciente ni decreciente, por consiguiente no prodrian aplicarse los resultados anteriores. Sin embargo es común el caso en el que la función g es monótona sobre ciertos subintervalos, los que permiten obtener una expresión para Y = g (X). Ejemplo 3.2.5 Suponga que X es una variable aleatoria continua. La función de distribución acumulada de Y = X 2, para y > 0, es: F Y (y) = Pr (Y y) = Pr ( X 2 y ) = Pr ( y X y) Como X es variable aleatoria continua se tiene: F Y (y) = Pr (X y) Pr (X y) = F X ( y) F X ( y) La función de densidad de Y puede obtenerse derivando su función de distribución acumulada: f Y (y) = d dy F Y (y) = d dy [F X ( y) F X ( y)] y usando la regla de la cadena para derivar F X ( y) y F X ( y) se tiene: f Y (y) = f X ( y) 1 2 y + f X ( 1 y) 2 y (3.2.7) Notar que la función de densidad anterior esta expresada como la suma de dos componentes sobre los intervalos donde g (x) = x 2 es monótona.

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 34 Teorema 3.2.3 Sea X con función de densidad f X (x), Y = g (X) y espacio muestral X. Suponga que existe una partición A 0, A 1,, A k de X tal que Pr (X A 0 ) = 0 y f X (x) es continua sobre cada A i. Suponga además que existen funciones g 1 (x),, g k (x) definidas sobre A 1,, A k respectivamente, que satisfacen: a. g (x) = g i (x) para x A i, b. g i (x) es monótona sobre A i, c. El conjunto Y = {y : y = g i (x) para algún x A i } es el mismo para cada i = 1,, k. d. g 1 i (y) tiene una derivada continua en Y, para cada i = 1,, k. Entonces: ( ki=1 f X g 1 i (y) ) d dy f Y (y) = g 1 i (y) y Y 0 de otro modo Es importante notar que cada g i (x) es una transformación uno a uno desde A i hacia Y. Además, gi 1 (y) es una función uno a uno desde Y hacia A i, tal que, para y Y, gi 1 (y) permite obtener un único x = gi 1 (y) A i para el cual g i (x) = y. Ejemplo 3.2.6 Sea X N (0, 1). Demostrar que Y = g(x) = X 2 tiene distribución chi-cuadrado con 1 grado de libertad. En algunos ocasiones la partición A 0, A 1,, A k de X forma también una partición del conjunto Y. En este caso todavía es posible usar 3.2.3. Ejemplo 3.2.7 Sea X E(β). Hallar la función de densidad de Y = g(x) = (X 2) 2. Teorema 3.2.4 Sea X cuya función de distribución acumulada, F X (x), es continua. Si se define la variable aleatoria Y = F X (x), entonces Y tiene distribución uniforme en el intervalo (0, 1).

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 35 Demostración: Si Y = F X (x) entonces 0 < y < 1, Pr (Y y) = Pr (F X (X) y) = Pr ( FX 1 (F X (X)) FX 1 (y) ) = Pr ( X FX 1 (y) ) ( = F X F 1 X (y) ) = y 3.3. Valores esperados Definición 3.3.1 El valor esperado o media de una variable aleatoria g (X), denotado por E [g (X)], es: x X g (x) f X (x) si X es discreta E [g (X)] = g (x) f (3.3.1) X (x) dx si X es continua siempre que la integral o suma exista. Si E [ g (X) ] = se dice que E [g (X)] no existe. Ejemplo 3.3.1 Suponga que X E (β), entonces: E [X] = ˆ 0 x 1 β e x/β dx = β Ejemplo 3.3.2 Si X BI (n, p), entonces: n n n n E [X] = x p x (1 p) n x = x p x (1 p) n x x=0 x x=1 x Usando la identidad x n x = n n 1 x 1 se tiene: n n 1 E [X] = n p x (1 p) n x x=1 x 1 n 1 n 1 = n p y+1 (1 p) n (y+1) y=0 y n 1 n 1 = np p y (1 p) n 1 y y=0 y = np

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 36 Ejemplo 3.3.3 Un ejemplo clásico de una variable aleatoria cuyo valor esperado no existe corresponde a la distribución de Cauchy. Teorema 3.3.1 Sea X una variable aleatoria y sean a, b y c constantes. Entonces para funciones cualesquiera g 1 (x) y g 2 (x) cuyos valores esperados existan, a. E [ag 1 (X) + bg 2 (X) + c] = ae [g 1 (X)] + be [g 2 (X)] + c. b. Si g 1 (x) 0 para todo x, entonces E [g 1 (X)] 0. c. Si g 1 (x) g 2 (x) para todo x, entonces E [g 1 (X)] E [g 2 (X)]. d. Si a g 1 (x) b para todo x, entonces a E [g 1 (X)] b. Ejemplo 3.3.4 Suponga que se mide la distancia entre una variable aleatoria X y una constante b mediante (X b) 2. Mientras más cerca esté b de X más pequeña sera dicha cantidad. El objetivo es determinar el valor de b que minimize E[(X b) 2 ]. E [ (X b) 2] = E [ (X E [X] + E [X] b) 2] = E [ ((X E [X]) + (E [X] b)) 2] = E [ (X E [X]) 2] + E [ (E [X] b) 2] ya que E [(X E [X])(E [X] b)] = 0. Además (E [X] b) es una constante. Luego: E [ (X b) 2] = E [ (X E [X]) 2] + (E [X] b) 2 Como no se tiene control sobre el primer término del lado derecho y el segundo término puede ser mayor o igual a 0, el menor valor se obtiene cuando b = E[X]. Entonces: min b E [ (X b) 2] = E [ (X E [X]) 2]

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 37 3.4. Momentos y función generatriz de momentos Definición 3.4.1 Para cada entero n, el n-ésimo momento de X, µ n, es: µ n = E [X n ] El n-ésimo momento central de X, µ n, es: donde µ = µ 1 = E [X]. µ n = E [(X µ) n ] Definición 3.4.2 La varianza de una variable aleatoria X es su segundo momento central, Var (X) = E [(X µ) 2 ]. La raíz cuadrada positiva de la varianza es conocida como desviación estándar. Ejemplo 3.4.1 Si X E (β), entonces: Var (X) = E [ (X µ) 2] = ˆ 0 (x β) 2 1 β e x/β dx = β 2 Teorema 3.4.1 Si X es una variable aleatoria con varianza finita, entonces para constantes cualesquiera a y b: Var (ax + b) = a 2 Var (X) Demostración: Usando la definición de varianza: Var (ax + b) = E [ ((ax + b) E [(ax + b)]) 2] = E [ (ax ae [X]) 2] = a 2 E [ (X E [X]) 2] = a 2 Var (X) La siguiente forma de calcular la varianza es bastante útil: Var (X) = E[X 2 ] E 2 [X] (3.4.1)

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 38 Ejemplo 3.4.2 Si X BI (n, p), entonces:. pero: luego, Finalmente: ) n E[X 2 ] = x 2( n p x (1 p) n x x=0 x n x 2 n! n 1 = x x (x 1)!(n x)! = xn x 1 n n 1 E[X 2 ] = xn p x (1 p) n x x=1 x 1 n 1 n 1 = n (y + 1) p y+1 (1 p) n 1 y y=0 y = np(n 1)p + np Var [X] = n 2 p 2 np 2 + np (np) 2 = np(1 p) Definición 3.4.3 Sea X una variable aleatoria. La función generatriz de momentos de X, denotada por M X (t), es: M X (t) = E [ e tx] sujeto a que el valor esperado exista. Entonces: x e tx f X (x) M X (t) = etx f X (x) dx si X es discreta si X es continua Teorema 3.4.2 Si X tiene función generatríz de momentos M X (t) entonces: donde M (n) X (0) = dn dt n M X (t) t=0. E [X] = M (1) X (0)

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 39 Prueba: Asumiendo que es posible intercambiar la derivada con la integral, se tiene: d dt M X(t) = d dt = = ˆ ˆ ˆ e tx f X (x)dx ( d dt etx = E [ Xe tx] ) xe tx f X (x)dx f X (x)dx luego d dt M X(t) t=0 = E [ Xe tx] t=0 = E [X]. Trabajando de manera análoga, se puede establecer que: d n dt n M X(t) t=0 = E [ X n e tx] t=0 = E [X n ] Ejemplo 3.4.3 Sea X G(α, β). La función generatriz de momentos esta dada por: M X (t) = = = = = 1 Γ(α)β α 1 Γ(α)β α 1 Γ(α)β α ˆ 0 ˆ 0 ˆ 0 1 Γ(α)β Γ(α) α α 1 1 βt e tx x α 1 e x/β dx x α 1 e x((1/β) t) dx x α 1 e x/( 1 βt) β dx ( β ) α 1 βt y existe solo si t < 1/β. La media de la distribución gamma es: E [X] = d dt M X(t) t=0 = αβ (1 βt) α+1 = αβ t=0 Los otros momentos pueden calcularse de forma similar.

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 40 Ejemplo 3.4.4 Si X BI (n, p), entonces: ) n M X (t) = e tx( n p x (1 p) n x x=0 x n n = (pe t ) x (1 p) n x x x=0 = [pe t + (1 p)] n recordando que n x=0 ( n x) u x v n x = (u + v) n. Teorema 3.4.3 Suponga {X i, i = 1, 2, } es una secuencia de variables aleatorias cuya función generatriz de momentos es M Xi (t). Además: lim M X i i (t) = M X (t) donde M X (t) es una función generatriz de momentos. Entonces existe una única función de distribución acumulada F X cuyos momentos estan definidos por M X (t) tal que: lim i F X i (x) = F X (x) Ejemplo 3.4.5 Una aproximación usada en cursos elementales de estadística permite aproximar las probabilidades binomiales usando la distribución de Poisson. Esta aproximación es válida cuando n es grande y np es pequeño. La función de probabilidad de Poisson es: Pr(Y = y) = e λ λ y y! y = 0, 1, 2, donde λ es una constante positiva. La aproximacion es tal que si X BI(n, p) y Y P(λ) con λ = np, entonces: Recordar que: Pr(X = x) Pr(Y = x) M X (t) = [pe t + (1 p)] n es la función generatriz de momentos de la distribución binomial. Para la distribución de Poisson se puede demostrar que su función generatriz de momentos es: M Y (t) = e λ(et 1)

CAPÍTULO 3. TRANSFORMACIONES Y ESPERANZA 41 Como λ = np, entonces: M X (t) = [ 1 + p(e t 1) ] n [ = 1 + (et 1)λ n Lema 3.4.1 Sean a 1, a 2, una secuencia de números que convergen hacia a, es decir lim n a n = a, entonces: ( lim 1 + a ) n n = e a n n Demostración: La demostración de este lema puede encontrarse en los textos de cálculo. Luego, si se toma a n = λ(e t 1) = a entonces: ] n lim M X(t) = e λ(et 1) = M Y (t) n es la función generatriz de momentos de la distribución de Poisson. Teorema 3.4.4 Sean a y b constantes, la función generatriz de momentos de la variable aleatoria ax + b está dada por: Prueba: Por definición: M ax+b (t) = e bt M X (at) M ax+b (t) = E [ e (ax+b)t] = E [ e axt e bt] = e bt E [ e X(at)] = e bt M X (at)