Tema 2: VARIABLE ALEATORIA UNIDIMENSIONAL

Documentos relacionados
Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL

Concepto de VA bidimensional. Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL. Concepto de VA bidimensional. Concepto de VA bidimensional

Tema 2: Variables Aleatorias Unidimensionales

3. Variables aleatorias

2. VARIABLE ALEATORIA. Estadística I Dr. Francisco Rabadán Pérez

DISTRIBUCIONES DE PROBABILIDAD

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Repaso de Teoría de la Probabilidad

Variables aleatorias

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Tema 3: Funcio n de Variable Aleatoria

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Sumario Prólogo Unidad didáctica 1. Introducción a la estadística. Conceptos preliminares Objetivos de la Unidad...

Estadística Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

TEMA 2.- VARIABLES ALEATORIAS

Variables aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias

5. Distribuciones de probabilidad multivariadas

Transformaciones y esperanza

3 ANALISIS DESCRIPTIVO DE LOS DATOS

Introducción al Diseño de Experimentos.

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74

1. La Distribución Normal

Tema 5. Variables Aleatorias

Fundamentos de la investigación en psicología

Tema 13: Distribuciones de probabilidad. Estadística

Experimento de lanzar 3 monedas al aire. Denominando por (C) a Cara y (X) a Cruz, el espacio muestral será: Ω={CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX}

Tema 5 Modelos de distribuciones de Probabilidad

Notas de clase. Prof. Nora Arnesi

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

Tema 5: Modelos probabilísticos

Tema 4: Variables aleatorias.

Tema 6. Variables aleatorias continuas

VARIABLES ALEATORIAS INTRODUCCIÓN

ENUNCIADO y SOLUCIONES. Problema 1

Tema 12: Distribuciones de probabilidad

INTRODUCCIÓN A LAS DISTRIBUCIONES CONTINUAS Y EL TEOREMA CENTRAL DEL LÍMITE (10 MINUTOS)

Estadística Descriptiva y Probabilidad FORMULARIO

TEORÍA DE CÁLCULO I. Para Grados en Ingeniería. Capítulo 2: Cálculo diferencial de una variable. Domingo Pestana Galván José Manuel Rodríguez García

Estadística I Tema 5: Modelos probabiĺısticos

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

Unidad IV: Distribuciones muestrales

Distribuciones Continuas

Distribuciones de probabilidad multivariadas

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Departamento de Matemáticas Recomendaciones para prueba extraordinaria 2018

Estadística aplicada al Periodismo

TEMA 3: Probabilidad. Modelos. Probabilidad

CÁLCULO DE PROBABILIDADES

Estadística ESTADÍSTICA

Variable Aleatoria Continua. Principales Distribuciones

Teorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i :

Tema 4: Variable Aleatoria Bidimensional

Tema 4: Variables Aleatorias

Bachillerato Internacional. Matemáticas Nivel Medio. Programa para el curso 1º ( )

UNIVERSIDAD TECNICA PARTICULAR DE LOJA ESTADISTICA Y PROBABILIDAD ENSAYO N 4

Modelos de distribuciones discretas y continuas

RESUMEN CONTENIDOS TERCERA EVALUACIÓN PROBABILIDAD DISTRIBUCIÓN BINOMIAL DISTRIBUCIÓN NORMAL

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

18 Experimentos aleatorios. Sucesos y espacio muestral. Frecuencia y probabilidad de un suceso.

Material introductorio

ANEXO.- DISTRIBUCIÓN BINOMIAL. DISTRIBUCIÓN NORMAL

Variables aleatorias unidimensionales

Modelos de distribuciones discretas y continuas

Tema 4: Probabilidad y Teoría de Muestras

Tema 7. Variables Aleatorias Continuas

Programa Oficial de Asignatura. Ficha Técnica. Presentación. Competencias y/o resultados del aprendizaje. Estadística

ANÁLISIS MATEMÁTICO IES A SANGRIÑA 2016/2017

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22

TEMA 5 Estadística descriptiva. Análisis de datos

PROBABILIDAD. Unidad I Ordenamiento de la Información

INTRODUCCIÓN. Fenómeno Real. Aprendizaje sobre el fenómeno. Análisis Estadístico. Datos Observados

Cuáles son las características aleatorias de la nueva variable?

FLORIDA Secundaria. 1º BACH MATEMÁTICAS CCSS -1- BLOQUE ESTADÍSTICA: ESTADÍSTICA VARIABLE UNIDIMENSIONAL. Estadística variable unidimensional

Tema 3. Probabilidad y variables aleatorias

Distribuciones de Probabilidad

Gobierno de La Rioja MATEMÁTICAS CONTENIDOS

Definición de probabilidad

Objetivos 1-0. Francisco José García Álvarez

Variables aleatorias

Variables aleatorias: El caso continuo. Random variables: The continuous case. Rincón de la Bioestadística

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)

Transcripción:

Tema 2: VARIABLE ALEATORIA UNIDIMENSIONAL Carlos Alberola López Lab. Procesado de Imagen, ETSI Telecomunicación Despacho 2D014 caralb@tel.uva.es, jcasasec@tel.uva.es, http://www.lpi.tel.uva.es/sar

Concepto de VA unidimensional Supóngase que se envía una señal pulsada de dos posibles valores ( ±1 voltios) y se mide la tensión recibida cada cierto tiempo. Si la señal es como la de la figura adjunta, nuestras lectura serán números que responden a fenómenos aleatorios, de forma que lo normal es que no coincidan con los valores que cabría esperar. Tales números constituyen los valores que puede tomar la variable aleatoria tensión observada. Las conclusiones a las que podremos llegar en relación con tales variables serán sólo probabilísticas.

Concepto de VA unidimensional Una VA se define formalmente mediante la aplicación : S a S R ( a) R donde asumiremos que se cumplen dos condiciones: 1. 2. No escribiremos la dependencia explícita con el resultado del experimento aleatorio a S Emplearemos letras mayúsculas para denotar las variables y letras minúsculas para denotar valores particulares que puedan tomar éstas.

Concepto de VA unidimensional Distinguiremos tres tipos de VAs 1. Discretas: los valores que toman se pueden indexar mediante un índice entero. 2. Continuas: los valores que toman pertenecen a un rango continuo. 3. Mixtas: se mezclan ambas tipos de comportamiento.

Caracterización de VA unidimensional La caracterización de una VA consiste en la información necesaria para poder hacer cálculos probabilísticos sobre los valores de la misma. La caracterización de una VA es pues el enunciado de la ley de asignación de probabilidades a los valores de la misma. Esta caracterización se puede realizar de forma unificada para todo tipo de variables. No obstante es mucho más sencillo considerar casos separados según el tipo de VA.

Caracterización de VA unidimensional Caso de VAs discretas. Necesitamos conocer: x i 1. Los valores que pueden tomar. 2. Las probabilidades ( ) p = P = i x i Por ejemplo: VA que pueden tomar cualquier valor entero con probabilidad p i. Calcular probabilidad de que tome valores entre -2 y 2 (ambos incluidos)

Caracterización de VA unidimensional Caso de VAs continuas: Función de distribución. Se define de la forma un ejemplo de la cual sería

Función de distribución. Propiedades Comportamiento por la izquierda: Comportamiento por la derecha Función acotada pues Función no decreciente: si ya que Por este motivo a esta función se le denomina también función de probabilidad acumulada (o cdf de cumulative distribution function)

Función de distribución Uso adicional de la función de distribución: Podemos escribir el suceso Entonces Por lo que Así pues un intervalo donde esta función es constante es un intervalo de probabilidad nula.

Función de distribución Finalmente, podemos escribir: Lo cual lleva a

Función de distribución: variables discretas Suponer variable discreta que puede tomar los valores a, b y c con probabilidades respectivas p a, p b y p c. F ( x) Calculamos su función de distribución dando respuesta a la probabilidad F ( x) = P( x) p + p + a b p c p a + p b p b p c 1 p a a b c x

Función de distribución: variables discretas Luego esta expresión se puede escribir: Y por tanto NO ES INFORMATIVA pues no añade nada con respecto a lo que ya sabíamos. Simplemente es introducir la información de partida en una estructura de funciones escalón. El caso general sería

Función de distribución: variables mixtas Este tipo de variables presentan comportamientos continuos y discretos. Este hecho debe reflejarse en la función de distribución, la cual debe una cantidad numerable de discontinuidades finitas. Por ejemplo:

Función de distribución: discontinuidades Valor que toma la función en un punto: valor que toma a su inmediatamente a su derecha p + p + a b F p c ( x) 1 p a + p b p c p b p a a b c x

Función de distribución: discontinuidades Probabilidad asociada a un valor concreto: Zona continua: prob. nula de esos valores. p + p + a b F p c ( x) 1 p a + p b p c p b p a x 0 a b c x

Función de distribución: discontinuidades Probabilidad asociada a un valor concreto: Zona continua: prob. nula de esos valores. Probabilidad en puntos de discontinuidad: altura de discontinuidad p + p + a b F p c p a + p b ( x) p b p c 1 p a a b c x

Función de distribución: VA continua Probabilidad asociada a un valor concreto: En una VA continua todos sus valores tienen probabilidad nula. Sólo tiene sentido hablar pues de intervalos de valores de la variable. F ( x) 1 x

Función de densidad de probabilidad Se define a partir de la función de distribución Ello lleva a:

Función de densidad de probabilidad Esta función debe cumplir varias propiedades: Ser no negativa pues El área bajo ella deber ser unitaria pues La probabilidad en un intervalo es sencilla de calcular: x x 2 df ( x = 2 ) f ( x ) dx x 1 x 1 F 2 ) F ( x1) ( x < ) ( x = P x 1 2 x = 2 x 1 f ( x) dx

Función de densidad de probabilidad Por qué motivo recibe este nombre?: Podemos escribir Y dado que la derivada es el límite de un cociente incremental Por ello, esta función es el cociente entre la probabilidad de un intervalo y su longitud, cuando ésta tiende a cero. Es pues, dimensionalmente, una densidad de probabilidad (prob/longitud)

Función de densidad de probabilidad Qué sucede con las variables discretas y mixtas?: Recordemos que cada punto de probabilidad no nula venía acompañado de una discontinuidad en la función de distribución: Por ello, su derivada presentará impulsos en aquellos lugares donde tengamos una discontinuidad:

Algunos ejemplos de Vas (1: Continuas) Variable Uniforme f ( x) k = 1 b a a b x

Algunos ejemplos de Vas (1: Continuas) k = 1 b a Δ f ( x) P P ( x x ) 1 < = 2 ( x x ) Δ 3 < = 4 x x x 1 x 2 3 4 f f ( ( x) dx x) dx = = x2 b x4 b ( x < x + dx) = f x dx P ( ) x a x a 1 3 = Δ b a = Δ b a a x1 x2 x3 x4 TODOS LOS PUNTOS EN ( a,b) SON EQUIPROBABLES b x

Algunos ejemplos de Vas (1: Continuas) Función de distribución: F x = ( x) f ( τ d )τ F ( x) x = 0d τ = 0, x < a x a b 1 d τ = b a x a b a =, a 1 b a d τ = = 1 b a b a =, a x < b x b a b x

Algunos ejemplos de Vas (1: Continuas) Variable Gaussiana

Algunos ejemplos de Vas (1: Continuas) Influencia del segundo parámetro

Algunos ejemplos de Vas (1: Continuas) Función de distribución

Algunos ejemplos de Vas (1: Continuas) Uso práctico de la Función de distribución: La integral no tiene primitiva. Debe pues acudirse a integración numérica o bien emplear como soporte otras funciones más comunes (función erf, por ejemplo). Lo normal para trabajar con lápiz y papel es acudir a tablas. Las tablas, típicamente: Se dan sólo para variables normal estándar (a=0, b=1) Se dan sólo para abscisas no negativas. Cómo conseguir generalidad en las mismas?

Algunos ejemplos de Vas (1: Continuas) Partimos de: Y buscamos: Si hacemos el cambio α = τ a b Llegamos a:

Algunos ejemplos de Vas (1: Continuas) Por otra parte dada la simetría de la función de densidad de la normal estándar respecto de x=0, se verifica que: ( x) = P( > x) P G ( x) = 1 G( x)

Algunos ejemplos de Vas (1: Continuas) Variable exponencial f ( x) f ( ), λ 0 ( ) = λ λ x x e u x > x

Algunos ejemplos de Vas (2: Discretas) Variable de Bernoulli (de parámetro p) = 0 1 P P ( = 0) ( = 1) = = q p Variable Binomial (de parámetros N y p) ~ ( p) B N, Variable de Poisson (de parámetro a) P k ( = k ) k = 0,1,2, L, N N = p k q N k = k P k ( = k ) = k = a e 0 k a k! Variable geométrica (de parámetro p) = P k ( = k ) k = 0 q k p

Funciones condicionadas Se plantea cómo incluir más información en las funciones de caracterización total de las variables aleatorias una vez que se sabe que un determinado suceso se ha verificado. A tales funciones se les denomina funciones condicionadas, y se representan: F f ( x B) ( x B) donde B es un suceso de probabilidad no nula.

Funciones condicionadas Las funciones se definen de forma coherente con lo ya conocido. En concreto: La función de distribución es una probabilidad, luego la función de distribución condicionada es una probabilidad condicionada. La función de densidad es la derivada de la función de distribución, luego sucede lo propio con la función de densidad condicionada:

Funciones condicionadas B { a < b} = F ( x B) Ejemplo: ; hallar ( x B) F { } B = P ( x I B) P( B) x I B = { x} I B = { a < x} { x} I B = a b x

Funciones condicionadas Entonces: B = { a < b} ( x B) F { x } B = B I { x} I B = { a < x} { x} I B = a b x

Teoremas de la Prob. Total y Bayes Si los sucesos Ai constituyen una partición del espacio muestral, recordando el Teorema de la Probabilidad Total B = { x} podemos escribir: (haciendo que ) y derivando

H 0 H 1 Teoremas de la Prob. Total y Bayes a 0 H H 0 1 ~ ~ (, b ) N a 0 0 (, b ) N a 1 1 a 1

H 0 H 1 Teoremas de la Prob. Total y Bayes a 0 H H 0 1 ~ ~ (, b ) N a 0 0 (, b ) N a 1 1 a 1 a0 = 3 a = 1 3

Teoremas de la Prob. Total y Bayes Recordando que y que B { x} = y definiendo, entonces P ( A x) i = P ( Ai I { x} ) P( x) = P ( x A ) P( A ) P i ( x) i es decir expresión del Teorema de Bayes

Caso de partición continua Si ahora hacemos que { < } B = x 1 x 2 entonces Con el objetivo de calcular un límite de un cociente incremental renombremos y obtenemos x x 1 2 = x = x + Δx

Caso de partición continua Si ahora convertimos esta expresión en un cociente de cocientes incrementales al calcular el límite llegamos a

Caso de partición continua Hemos obtenido pues que P ( A = x) = f f ( x A) ( x) P( A) Si pasamos el denominador al primer miembro tenemos e integrando expresión del Teorema de la Probabilidad Total para partición continua.

Ejemplo: H 0 a 0 H 0 ~ (, b ) N a 0 0 H 1 H 1 ~ (, b ) N a 1 1 a 1 Supongamos que se observa el valor x=0.5; se pide que se indique qué símbolo de los dos es más probable que haya sido enviado en estas circunstancias.

a0 = 3 a 1 = 3

Caracterización parcial de VA Las funciones de densidad o distribución constituyen la fuente de caracterización total de una VA. Sin embargo, en un problema real para poder aproximar estas funciones hace falta un número elevado de observaciones de la variable en cuestión. Existen otros parámetros de caracterización de las Vas Tales parámetros no permiten calcular probabilidades, pero proporcionan una idea aproximada de cómo se comportan las variables. En particular: Alrededor de qué valor se obtienen observaciones de la VA.Tal valor es el valor medio. Qué dispersión tienen las observaciones de la VA alrededor de ese valor. La dispersión se cuantifica a través de la desviación típica y/o la varianza.

Mide el valor promedio. Media de una VA Por ejemplo, el valor medio de un expediente académico no caracteriza completamente un alumno, pero da una idea de su rendimiento académico. Cómo se calcula? Como la suma de todas las notas dividida por el número de ellas. Esto sería una media aritmética. Si se quiere dar más peso a calificaciones de asignaturas de más créditos se multiplicaría cada nota por el número de créditos de la asignatura y se dividiría por el número total de créditos cursados. Eso sería una media ponderada.

Media de una VA Supongamos que es una VA discreta. Su media se define como media ponderada de los valores que puede tomar esta VA. Supongamos que: El valor medio se define como: Y se denota de la forma xi pi = P ( = x ) ( = xi ) xi pi xip = i i i η = x i p i i

Media de una VA El operador para el cálculo de la media en un caso general se llama operador esperanza matemática (o, simplemente, esperanza) aplicado sobre los valores de la VA. Así pues, para un caso general: η = E = x f x Si es discreta su función de densidad es por lo que { } ( )dx

Moda y mediana de una VA La moda de una VA se define como la abscisa donde la función de densidad es máxima, esto es La mediana se define como aquella abscisa que deja a su izquierda la misma probabilidad que deja a su derecha, es decir

Moda y mediana de una VA La moda de una VA se define como la abscisa donde la función de densidad es máxima, esto es La mediana se define como aquella abscisa que deja a su izquierda la misma probabilidad que deja a su derecha, es decir xmoda xme

Varianza de una VA Se trata de medir dispersión con respecto de la media. La dispersión se puede definir como η No obstante si se calcula la esperanza de la dispersión (esto, es la dispersión promedio) resulta: E { η} = ( x η ) f ( x) dx = xf ( x) dx η f ( x) = E{ } η f ( x) dx = η η = 0 dx

Varianza de una VA Por este motivo se trabaja con las dispersiones cuadráticas con respecto de la media, es decir. ( η ) 2 y de esa magnitud se calcula su esperanza, dando lugar a la varianza de : σ 2 {( ) } 2 2 η = ( x η ) f ( x) = E dx La desviación típica se define como la raíz cuadrada (con signo positivo) de la varianza: σ = + ( ) 2 σ

Varianza de una VA El operador esperanza matemática es un operador lineal dado que es la integral de una función (el argumento del operador esperanza) multiplicada por la función de densidad de la variable. Ello permite escribir: { } La magnitud E 2 se denomina valor cuadrático medio de la VA.

Varianza de una VA Para el caso de una variable discreta la varianza se define de la misma manera, esto es, como el promedio ponderado de la desviaciones cuadráticas con respecto a la media. Esto se traduce en: y si operamos a partir de aquí obtenemos { } 2 2 con E = x el VCM de la VA discreta. i 1 p i

Varianza de una VA Cuál sería la media y la varianza de una constante? Una constante es una VA (digamos ) degenerada que sólo puede tomar un valor (el suyo) con probabilidad 1. Por ello si la constante es igual a a podemos escribir η = xi p i = a 1 = i a y 2 σ i η i 2 2 ( x ) p = ( a ) 1 = 0 = a i Es decir, una constante es un caso particular de VA con media igual a la constante y varianza nula.

Desigualdad de Tchebycheff Imaginemos que NO conocemos la función de densidad de una VA pero que nos interesaría tener una aproximación a la probabilidad de un determinado suceso de esa variable, en concreto: es decir

Desigualdad de Tchebycheff Podemos obtener una COTA a dicha probabilidad con sólo la varianza. Para ello, partimos de la definición de varianza y aproximamos

Cómo es la cota provista? Es una cota bastante conservadora, es decir, no aquilata mucho los valores. ~ ( ) N η,σ Supongamos que. Si nos interesa un radio igual a ε = 3σ el cálculo exacto sería Y la cota sería:

Transformación de VA Recordemos cómo se definía una VA Ahora definimos una función sobre la misma Por lo que el resultado neto es Objetivo: caracterizar Y a partir de la caracterización de (y de la transformación, naturalmente).

Transformación de VA: caso discreto Suponer discreta que pueda tomar los valores x i, i=1,,5. Suponer transformación Y=g() El objetivo es caracterizar la VA destino Y. La mecánica para llevar esto a cabo es una simple inspección y un recuento de posibilidades. Hay que ver qué valores y i resultan de la transformación. Y qué valores x i se transforman en cada y i.

Transformación de VA: caso discreto

Caso general: obtención de Suponer continua; la figura muestra Y=g() F Y Se trata de caracterizar Y a partir de la función de distribución de. ( y) y El procedimiento consiste en barrer el eje vertical e ir dando solución a la probabilidad del suceso { Y y} para cada valor de y bajo estudio.

Caso general: obtención de F ( y) Y y y < y min F Y ( y) = 0 y > ( y) = 1 y max F Y y

Caso general: obtención de F ( x) y 2 { Y y } = { > } F ( y ) = P( Y y ) = P( > x ) = F ( ) 2 x 2 Y 2 2 2 1 x2

Caso general: obtención de F ( x) y 1 { Y y } = { x < x } U { > } 1 11 12 x13 F Y ( y1) = P( x11 < x12 ) + P( > x13) = F ( x ) F ( x ) + 1 F ( x ) 12 11 13

1 4 y = g( x) y x P ( Y y) = P( < ) x 1 x 2 f ( x) P ( Y y) = P( y < y ) x 1 2 x1 x2 1 2

Casos particulares de importancia { Y = y } = { x < } 1 1 x 2 P ( Y = y ) = F ( x ) F ( ) 1 2 x1 VARIABLE MITA!!!!

Casos particulares de importancia VARIABLE DISCRETA!!!!

Casos particulares de importancia ZONA DE PROBABILIDAD NULA!!!!

Teorema Fundamental Se trata de obtener ahora de forma directa la función de densidad de la variable Y Esto se hace a través de una expresión cerrada conocida como el Teorema Fundamental. { y < Y y + dy} = R1 U R2 U R3 R 1 R 2 R 3

Teorema Fundamental R 1 R 2 R 3 { y < Y y + dy} = ( ) N y U R i i=1 P N ( y ) ( y < Y y + dy) = f ( y) dy = f ( ) Y i= 1 x i dx i

Teorema Fundamental Retomando la expresión P ( y < Y y + dy) = f ( y) dy = f ( ) Si ahora despejamos obtenemos f Y N ( y ) ( y) = f ( x ) i= 1 i Y dxi dy N ( y ) i= 1 x i dx i f Y ( y) = ( y ) N ( y ) f ( x ) f ( x) N i = dy i= 1 dx i i= 1 dy dx x= x i = ( y ) f N i= 1 g' ( x) ( x) x= x i

Teorema Fundamental El teorema, por tanto dice que: lo cual significa que: ( y) 1. Podemos obtener la fdp de Y en base a la superposición de N(y) contribuciones. 2. Debe expresarse tal función en términos de y, no de x, luego se tendrá que invertir la función y=g(x). ( y ) N i= 1 g' 3. Debe indicarse los rangos de validez de las expresiones. ( x) ( x) 4. Debe emplearse el teorema sólo para variables continuas (o para mixtas, en su zona de comportamiento continuo) y para funciones derivables. f Y = f x= x i

y = g( x) 1 4 f ( x) y x x 1 2 x 1 x 2 1 2

Casos particulares de importancia { Y = y } = { x < } 1 1 x 2 P ( Y = y ) = F ( x ) F ( ) 1 2 x1 VARIABLE MITA!!!!

Casos particulares de importancia TEOREMA FUNDAMENTAL Y ( y) h( y) + P( Y = y1 ) δ ( y y 1 ) f =

Casos particulares de importancia VARIABLE DISCRETA!!!!

Casos particulares de importancia f Y ( y) = P( Y = y ) δ ( y y ) + P( Y = y ) δ ( y y ) + P( Y = y ) δ ( y ) P 1 1 2 2 3 y3 ( Y = y ) = P( P( Y ) = y ) = P( x < P )( Y = y ) = P( > ) 1 x 1 2 1 x2 3 x 2

Casos particulares de importancia ZONA DE PROBABILIDAD NULA!!!!

Casos particulares de importancia f Y ( y) y TEOREMA FUNDAMENTAL

Casos particulares de importancia y = g( x) x Transformación no derivable en puntos aislados: IGNORAR!!!

Caracterización parcial de Y = g( ) Hemos visto cómo obtener las funciones de caracterización (total) de la variable transformada. Ahora cabe preguntarse: y si sólo nos interesan parámetros de caracterización parcial de la VA? Y Un camino obvio es: ( ) x f = g( ) ( y) f Y { } { } 2 E Y, E Y 2, σ Y La cuestión es: podemos evitar el camino completo?

Caracterización parcial de Y = g( ) Buscamos calcular, por ejemplo, el valor medio: E { Y} yf ( y)dy = Y Por otra parte sabemos que: R 1 R 2 R 3 { y < Y y + dy} P = ( ) N y U R i i=1 N ( y ) ( y < Y y + dy) = f ( y) dy = f ( ) Y i= 1 x i dx i Entonces: yf Y N ( y ) ( y) dy = g( x ) f ( x ) i= 1 i i dx i

Caracterización parcial de Y = g( ) Ahora no vamos a relacionar ambos diferenciales mediante la derivada luego no hace falta que pongamos el valor absoluto en los diferenciales de las x: yf Si ahora barremos el eje vertical, barremos de forma acorde el eje horizontal, resultando: E Así pues, en general Y N ( y ) ( y) dy = g( x ) f ( x ) i= 1 { Y} = yf ( y) dy = g( x) f ( x) dx = E{ g( ) } Y { h( Y) } h( y) f ( y) dy = h( g( x) ) f ( x) dx E{ h( g( ) )} E = = Y i i dx i

Caracterización parcial de Y = g( ) En concreto: VCM: E { 2 Y } E g( ) {( ) } 2 2 = g ( x) f ( x) = dx = Varianza: σ 2 Y = = E {( ) } 2 Y ηy = E ( g( ) E{ g( ) }) ( g( x) E{ g( )} ) 2 f ( x ) dx = { } 2

Caracterización parcial de Y = g( ) Transformación lineal: es fácil ver que si entonces: Y = a + b Media: { Y} = E{ a + b} = ae{ } b E + Varianza: σ 2 Y = = E E {( ) } {( { }) } 2 2 Y ηy = E a + b E a + b {( ( { })) } {( { }) } 2 2 2 2 2 a E = a E E = a σ

Momentos de una VA Constituyen el conjunto de parámetros de caracterización parcial de una VA. Se dividen en No centrales: Centrales: El parámetro n suele ser un número entero positivo, pero también se habla de momentos de orden fraccionario. Momentos condicionados: usar f.d.p. condicionada

Momentos de una VA Es interesante ver que: Los momentos centrales de orden impar de distribuciones simétricas son nulos IMPAR PAR

Momentos de una VA Es interesante ver que: Los momentos centrales de distribuciones simétricas son nulos IMPAR PAR Los momentos están relacionados entre sí. En particular:

Momentos de una VA Es interesante ver que: Los momentos centrales de distribuciones simétricas son nulos Los momentos están relacionados entre sí. En particular: