MÉTODOS ESTADÍSTICOS APLICADOS

Documentos relacionados
2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

478 Índice alfabético

Tema 4: Variables aleatorias multidimensionales

INDICE. Prólogo a la Segunda Edición

Tema 4: Variables aleatorias multidimensionales

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

Prof. Eliana Guzmán U. Semestre A-2015

Unidad Temática 3: Probabilidad y Variables Aleatorias

Técnicas Cuantitativas para el Management y los Negocios I

Unidad IV: Distribuciones muestrales

ÍNDICE CAPÍTULO 1. INTRODUCCIÓN

Unidad 1: Espacio de Probabilidad

ANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN PLAN DE ESTUDIOS DE LA LICENCIATURA EN QUÍMICA INDUSTRIAL

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4

CÁLCULO DE PROBABILIDADES

Definición de probabilidad

Tema 3. VARIABLES ALEATORIAS.

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso

Teorema Central del Límite (1)

UNIVERSIDAD AUTONOMA DE SANTO DOMINGO

Tema 13: Distribuciones de probabilidad. Estadística

Capítulo 6: Variable Aleatoria Bidimensional

Variable Aleatoria Continua. Principales Distribuciones

Tema 6. Variables aleatorias continuas

Distribuciones de probabilidad bidimensionales o conjuntas

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

1. La Distribución Normal

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

Variables aleatorias

VARIABLES ESTADÍSTICAS BIDIMENSIONALES

Objetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev

Variables aleatorias

TEMA 3: Probabilidad. Modelos. Probabilidad

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

Grupo 23 Semestre Segundo examen parcial

INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)

VARIABLES ALEATORIAS DISCRETAS

Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad

Teoría de la decisión

Facultad de Ciencias Sociales - Universidad de la República

2. Continuidad y derivabilidad. Aplicaciones

PROBABILIDAD Y ESTADÍSTICA

Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B

PROBABILIDAD. Es el conjunto de todos los resultados posibles de un experimento aleatorio. Por ejemplo: Experimento: tirar un dado.

ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Estadistica. CURSO ACADÉMICO - SEMESTRE Primer semestre

PROBABILIDADES VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES. Prof. Johnny Montenegro 1 M.

Econometría II Grado en finanzas y contabilidad

ESTADÍSTICA I PRESENTACIÓN DE LA ASIGNATURA

CM0244. Suficientable

Variables aleatorias unidimensionales

La reordenación aleatoria de un conjunto finito

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

Tema 5. Variables Aleatorias

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M.

4.1. Polinomios y teoría de ecuaciones

1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes

Distribuciones de probabilidad

PROBABILIDAD Y ESTADÍSTICA

Tema 5. Muestreo y distribuciones muestrales

Derivadas e integrales

Distribuciones de Probabilidad para Variables Aleatorias Discretas 1

ESTADISTICA APLICADA: PROGRAMA

Ejercicios de Variables Aleatorias

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL FACULTAD DE INGENIERIA INDUSTRIAL Y DE SISTEMAS ESCUELA PROFESIONAL DE INGENIERIA AGROINDUSTRIAL

JUNIO Bloque A

Tema 5 Algunas distribuciones importantes

Carrera: Ingeniería Civil CIM 0531

Regresión y Correlación

Asignaturas antecedentes y subsecuentes

BLOQUE 4. CÁLCULO DIFERENCIAL DE FUNCIONES REALES DE UNA VARIABLE

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)

Tema 3: Cálculo de Probabilidades Unidad 2: Variables Aleatorias

Tema 2. Descripción Conjunta de Varias Variables

JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas

Tema 8: Contraste de hipótesis

Resumen teórico de los principales conceptos estadísticos

Definición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s).

3 PROBABILIDAD Y DISTRIBUCION NORMAL

Tema 5. Contraste de hipótesis (I)

TÉCNICO SUPERIOR UNIVERSITARIO EN PROCESOS INDUSTRIALES ÁREA SISTEMAS DE GESTIÓN DE LA CALIDAD EN COMPETENCIAS PROFESIONALES

ESTADÍSTICA. Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5):

Técnicas de Investigación Social

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

Conceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas

Técnicas Cuantitativas para el Management y los Negocios I

Variables Aleatorias. Introducción

Teléfono:

INSTITUTO POLITÉCNICO NACIONAL SECRETARIA ACADEMICA DIRECCIÓN DE ESTUDIOS PROFESIONALES EN INGENIERÍA Y CIENCIAS FÍSICO MATEMÁTICAS

Distribuciones Continuas de. Probabilidad. Dr. Víctor Aguirre Torres, ITAM. Guión 7.

ESTADÍSTICA. Tema 4 Regresión lineal simple

CONTENIDO. Prólogo a la 3. a edición en español ampliada... Prólogo...

INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión

PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE CIENCIAS EXACTAS Y NATURALES ESCUELA DE CIENCIAS QUIMICAS

1. Los números reales. 2. Representación. 3. Densidad de los números racionales. 4. Propiedades de los números reales

EVALUACIÓN EXTRAORDINARIA DE SEPTIEMBRE CURSO Contenidos para la Prueba de Septiembre MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES I.

Transcripción:

Pedro Sánchez Algarra (autor y coordinador) Xavier Baraza Sánchez Ferran Reverter Comas Esteban Vegas Lozano Departament d Estadística

TEXTOS DOCENTS 3 MÉTODOS ESTADÍSTICOS APLICADOS Pedro Sánchez Algarra (autor y coordinador) Xavier Baraza Sánchez Ferran Reverter Comas Esteban Vegas Lozano Departament d Estadística Publicacions i Edicions U UNIVERSITAT DE BARCELONA B

Indice ÍNDICE INTRODUCCIÓN...5 PRÓLOGO...7. VARIABLE ALEATORIA...9.. Concepto de variable aleatoria...9.. Función de distribución de probabilidad de una variable aleatoria...9.3. Variables aleatorias discretas....3.. Propiedades de la función de densidad de probabilidad (o de cuantía) en el caso discreto....4. Variables aleatorias absolutamente continuas...4.4.. Definición y propiedades....4.4.. Comparación del caso discreto con el absolutamente continuo...6.5. Distribución conjunta de dos variables aleatorias...7.5.. Distribución bivariantes discretas...8.5.. Funciones de densidad marginales en el caso discreto...9.5.3. Distribuciones bivariantes absolutamente continuas....30.6. Independencia estocástica de variables aleatorias...3.6.. Independencia de dos variables aleatorias en el caso discreto...3.6.. Independencia de dos variables aleatorias en el caso absolutamente continuo....3.7. Función de distribución condicional de X en el caso discreto...3.8. Función de distribución condicional de Y en el caso discreto...3.9. Función de densidad condicional de X en el caso discreto...3.0. Función de densidad condicional de Y en el caso discreto....33.. Función de densidad condicional de X en el caso absolutamente continuo...33.. Función de densidad condicional de Y en el caso absolutamente continuo...33.3. Esperanza matemática...34.3.. Sentido probabilístico de la esperanza matemática...34.3.. Esperanza matemática de una variable aleatoria discreta...34.3.3. Esperanza matemática de una variable aleatoria absolutamente continua...35.3.4. Significado de la esperanza...35 Métodos estadísticos aplicados 7

.3.5. Propiedades de la esperanza matemática....36.3.6. Esperanza matemática condicional...37.4. Varianza de una variable aleatoria...38.4.. Varianza de una variable aleatoria discreta...38.4.. Varianza de una variable aleatoria absolutamente continua...39.4.3. Propiedades de la varianza....39.5. Teorema de Tchebychev....40.6. Momentos de una variable aleatoria X respecto del origen...43.6.. Caso discreto...43.6.. Caso absolutamente continuo...44.7. Momentos centrales de una variable aleatoria X...44.7.. Caso discreto...44.7.. Caso absolutamente continuo...44.8. Momento de dos variables aleatorias respecto del origen...45.8.. Caso discreto...45.8.. Caso absolutamente continuo...45.9. Momento centrales de dos variables aleatorias...45.9.. Caso discreto...45.9.. Caso absolutamente continuo...46.0. Covarianza de dos variables aleatorias X e Y...46.0.. Propiedades...46.. Coeficiente de correlación lineal de Pearson...47.. Desigualdad de Schwarz...47.3. Propiedades del coeficiente de correlación de Pearson...48. DISTRIBUCIONES DISCRETAS...5.. Introducción...5.. Distribución de Bernouilli...5... Función de cuantía....5... Función de distribución...5..3. Cálculo de la esperanza...5..4. Cálculo de la varianza...5.3. Distribución binominal....53.3.. Función de cuantía....54.3.. Función de distribución...55.3.3. Propiedad fundamental...56.3.4. Cálculo de la esperanza y la varianza...56.5. Distribución de Poisson...59.5.. Cálculo de la esperanza...60.5.. Cálculo de la varianza...6.5.3. Propiedades de la distribución de Poisson....63 8

.5.4. Aproximación de la distribución binominal por la distribución de Poisson...64.6. Distribución hipergeométrica....66.6.. Cálculo de la función de cuantía...67.6.. Cálculo de la esperanza...69.6.3. Cálculo de la la varianza...70.7. Distribución geométrica o de Pascal...74.7.. Cálculo de la función de cuantía...74.7.. Cálculo de la esperanza...75.7.3. Cálculo de la la varianza...77.8. Distribución binominal negativa...77.9. Aplicaciones informáticas...79 Indice 3. DISTRIBUCIONES ABSOLUTAMENTE CONTINUAS...85 3.. Distribución uniforme...85 3... Función de distribución...86 3... Esperanza matemática...87 3..3. Varianza...88 3.. Distribución normal...89 3... Definición. Función de densidad....90 3... Propiedades...9 3..3. Función de distribución...94 3..4. Distribución normal reducida o estandarizada...94 3..5. Áreas bajo la curva normal...97 3..6. Tablas de la normal reducida...98 3..7. La distribución normal como límite de la distribución binomial.............. 0 3.3. Distribuciones Gamma, Exponencial y Ji-Cuadrado...04 3.3.. Función Gamma de Euler...04 3.3.. Distribución Gamma...05 3.3.3. Distribución exponencial...05 3.3.4. Distribución ji-cuadrado de Pearson ( X )...07 3.3.5. Esperanza y varianza de la distribución Gamma....09 3.3.6. Esperanza y varianza de la distribución Exponencial...09 3.3.7. Esperanza y varianza de la distribución ji-cuadrado...0 3.4. Distribución t de Student...0 3.5. Distribución F de Fisher-Snedecor.... 3.6. Ejemplo con ordenador...5 4. DISTRIBUCIONES DE LOS ESTADÍSTICOS EN EL MUESTREO...3 4.. Introducción...3 4.. Muestreo aleatorio simple...3 4.3. Estadístico...5 Métodos estadísticos aplicados 9

4.4. Estadístico suma muestral...6 4.5. Estadístico media muestral....7 4.6. Distribución muestral del estadístico suma muestral a partir de una población normal.. 8 4.7. Distribución muestral del estadístico media muestral a partir de una población normal.. 9 4.7.. El tamaño de la muestra...9 4.8. Distribución muestral del estadístico suma muestral a partir de una población no normal...30 4.9. Distribución muestral del estadístico media muestral a partir de una población no normal...30 4.0. Distribución muestral de una proporción....3 4.. Distribución muestral de la diferencia de dos proporciones...33 4.. Distribución muestral del estadístico varianza muestral en una población normal...34 4.3. Teorema de Fisher en una población normal.................................. 36 4.4. Teorema de Fisher en dos poblaciones normales independientes...38 4.5. Distribución del estadístico cociente de varianzas muestrales corregidas en dos poblaciones normales independientes con igualdad de varianzas...40 5. ESTIMACIÓN PUNTUAL DE PARÁMETROS Y MÉTODOS DE ESTIMACIÓN...43 5.. Introducción...43 5.. Estimador...43 5.3. Error cuadrático medio del estimador...44 5.4. Propiedades deseables de los estimadores...46 5.4.. Estimadores centrados o insesgados...46 5.4.. Cota de Cramér-Rao...49 5.4.3. Estimador de mínima varianza...50 5.4.4. Estimador eficiente...50 5.4.5. Estimador consistente...54 5.4.6. Estimador suficiente...56 5.5. Revisión detallada de los conceptos de verosimilitud e información...60 5.6. Métodos de estimación puntual...66 5.6.. Método de la máxima verosimilitud...66 5.6.. Método de los momentos....7 6. CONTRASTE DE HIPÓTESIS....77 6.. Introducción...77 6.. Regiones críticas...79 6.3. Región crítica óptima o prepotente...8 6.3.. Lema de Neyman-Pearson....99 6.4. Test de Razón de Verosimilitud...98 6.4.. Propiedades...99 0

7. ESTIMACIÓN POR INTERVALOS DE CONFIANZA....5 7.. Introducción...5 7.. Intervalo de confianza...5 7.3. Métodos de construcción de intervalos de confianza....6 7.3.. Método pivotal....6 7.3.. Método general de Neyman....8 7.4. Intervalos de confianza para una muestra en una población normal................. 34 7.4.. Intervalos de confianza para la media de una población normal, con desviación típica σ conocida... 34 7.4.. Intervalo de confianza para la media de una población normal con desviación típica σ desconocida y muestra de tamaño pequeño....36 7.4.3. Intervalo de confianza para la media de una población no normal y muestras de tamaño grande...37 7.4.4. Determinación del tamaño muestral...38 7.4.5. Intervalo de confianza para la varianza de una población normal con μ desconocida... 39 7.4.6. Intervalo de confianza para la varianza de una población normal con μ conocida...40 7.4.7. Región de confianza simultánea para (μ, σ ) en una población normal...4 7.4.8. Intervalo de confianza de una proporción...4 7.4.9. Determinació del tamaño muestral para estimar la rpoporción p de una población...44 7.5. Intervalos de confianza para dos muestras en dos poblaciones normales...45 7.5.. Intervalo de confianza para la diferencia de medias de dos poblaciones normales independientes, con varianzas conocidas...45 7.5.. Intervalo de confianza para la diferencia de medias de dos poblaciones independientes no necesariamente normales, con varianzas σ y σ desconocidas y muestras de tamaño grande...46 7.5.3. Intervalo de confianza para la diferencia de medias de dos poblaciones normales independientes con varianzas iguales y desconocidas.... 47 7.5.4. Intervalo de confianza para la diferencia de medias de dos poblaciones normales independientes con varianzas distintas y desconocidas y muestras de tamaño pequeño.... 49 7.5.5. Intervalo de confianza para la diferencia de medias en poblaciones normales: Datos apareados....50 7.5.6. Intervalo de confianza del coeciente de varianzas en poblaciones normales independientes.... 5 8. CONTRASTES DE HIPÓTESIS EN EL SUPUESTO DE NORMALIDAD....55 8.. Introducción...55 8.. Metodología...55 Indice Métodos estadísticos aplicados

8.3. El p-valor de un contraste...55 8.4. Contrastes para la media de una población normal...56 8.4.. Test de dos colas con varianza conocida...56 8.4.. Test de una cola con varianza conocida...57 8.4.3. Test de dos colas con varianza desconocida...58 8.5. Contrastes para la varianza de una población normal...59 8.6. Contrastes de una proporción....6 8.7. Test F de comparación de varianzas en dos poblaciones normales independientes....6 8.8. Contrastes de dos distribuciones normales independientes...64 8.8.. Contraste de medias con varianzas conocidas...64 8.8.. Contraste de la diferencia de medias en poblaciones normales independientes con varianzas desconocidas, pero supuestamente iguales: Muestras independientes... 65 8.8.3. Contraste de la diferencia de medias en poblaciones normales independientes con varianzas desconocidas y distintas: Muestras independientes...68 8.9. Contraste de igualdad de medias para datos apareados........................... 7 8.0. Comparación de proporciones en muestras apareadas. Variables-respuesta dicotómicas (o dicotomizadas). Test de McNemar...75 8.. Contraste de la diferencia de proporciones...84 8.. Ejemplo con ordenador...83 9. REGRESIÓN LINEAL SIMPLE....93 9.. Introducción...93 9.. Modelo de regresión lineal simple...94 9.3. Estimadores mínimo-cuadráticos de los coeficientes de la regresión...95 9.3.. Resúmen...97 9.3.. Otras expresiones de la suma de cuadrados del erros...97 9.4. Propiedades de los estimadores β 0 y β...98 9.5. Estimación de σ...30 9.6. Fórmula fundamental de descomposición de la variabilida en la regresión lineal y su relación con el coeficiente de correlación de Pearson....30 9.7. Distribución de los estimadores β 0 y β de los coeficientes de regresión en el muestreo. 308 9.8. Distribución del estadístico SSE/σ en el muestreo...309 9.9. Inferencias estadísticas acerca de los parámetros de la regresión...3 9.9.. Inferencias relacionadas con β...3 9.9.. Inferencias relacionadas con β 0...34 9.9.3. Inferencias relacionadas con β + β 0 X en X = x 0...35 9.9.4. Intervalo de predicción de una respuesta futura en X = x 0...37 9.0. Ejemplo con ordenador...39 TABLAS...37

Métodos estadísticos aplicados Prólogo PRÓLOGO Es un hecho incuestionable que los métodos estadísticos constituyen una herramienta imprescindible para aquellos profesionales e investigadores que han de manejar datos y obtener conclusiones de tales informaciones. Por este motivo, la Estadística está pisando con fuerza en ámbitos del conocimiento sumamente diversificados (Ingeniería, Ciencias Experimentales, Medicina, Psicología, Económicas, Sociología, etc.), y para todos ellos se ofrecen conceptos de desarrollo teórico de fácil aplicabilidad. Con esta obra se facilita al lector un material completo y consistente teoría, ejercicios y problemas- que contribuya al afianzamiento de sus conocimientos de Estadística, y le aporte un motivo de reflexión sobre los diversos conceptos utilizados y sus aplicaciones. El amplio corpus de conocimiento estadístico ha obligado a un disciplinado esfuerzo de contención para evitar una extensión desmesurada de la obra, dado el desplegamiento de contenidos que ofrece esta disciplina en la actualidad. El contenido de la obra se estructura en nueve capítulos. En los tres primeros se tratan las variables aleatorias y las diferentes distribuciones discretas y absolutamente continuas, y, son básicos para comprender el cuarto, relativo a la distribución de los estadísticos en el muestreo. En los capítulos cinco y seis se trata el tema de la estimación puntual de parámetros, los diferentes métodos de estimación y la teoría sobre el contraste de hipótesis. Los capítulos siete y ocho se refieren a la estimación por intervalos de confianza y al contraste de hipótesis paramétrico. Finalmente, el capítulo nueve se dedica a la regresión lineal simple. Diversos capítulos del texto están ilustrados con una aplicación práctica, utilizando el paquete estadístico Statgraphics Plus, versión 5.. Entendemos que esta vertiente relativa a aplicaciones resulta de suma utilidad para quienes pretendan adquirir una sólida formación estadística, y les ofrece un apoyo indudable desde este segundo flanco, sin duda relevante. Esta obra, fruto de la experiencia docente en diversas titulaciones en las cuales la Estadística tiene un papel relevante, se ha concebido con la idea de que pueda contribuir a los estudiantes de estas titulaciones a adquirir los conocimientos básicos de la disciplina, y teniendo especialmente en cuenta la realidad coyuntural que nos envuelve, en un momento de discusión e implantación de nuevos planes de estudio, que suponen una reducción del tiempo dedicado a la materia, pero no de los contenidos. 7

. Variable aleatoria. VARIABLE ALEATORIA. Concepto de variable aleatoria Sea un espacio de probabilidades ( Ω, a,p) a son las partes de Ω ( a = ( Ω )) Ω en la recta real., donde a es una álgebra de sucesos. Si el álgebra, una variable aleatoria X es toda aplicación del espacio muestral X : siendo X ( ω ) el valor de la variable aleatoria. Ω ω X ( ω) Obsérvese que X aplica a cada suceso elemental en un punto de la recta real y que con un mismo Ω se pueden definir infinitas variables aleatorias distintas.. Función de distribución de probabilidad de una variable aleatoria [ ] F( x) = P X x x Obsérvese que esta función solamente existe para variables aleatorias porque si X es una variable aleatoria, el conjunto [ X x] { ω X( ω) x} = Ω Ω es un suceso. La función de distribución cumple las siguientes propiedades: ) 0 F( x) x La demostración es trivial, pues por definición, ( ) F x es una probabilidad y la misma está comprendida entre 0 y. Métodos estadísticos aplicados 9

) lim F( x) = 0 ; lim F( x) = x x En efecto, se puede demostrar: ( ) [ ] { ω ω } lim F( x) = lim P X x = lim P Ω X( ) x = x x x { ω ω } { ω ω } = P lim x Ω X( ) x = P Ω X( ) = P = 0 ( ) [ ] { ω ω } lim F( x) = lim P X x = lim P Ω X( ) x = x x x 3) F( x ) es no decreciente. Esto significa que { ω ω } { ω ω } = P lim Ω X( ) x = P Ω X( ) x = P Ω = ( ) ( ) si x < x F x F x x, x = = En efecto: y teniendo en cuenta que resulta 4) Pa [ < X b] = Fb ( ) Fa ( ) { ω ( ω) } { ω ( ω) } x < x Ω X x Ω X x P[ X x ] P[ X x ] si A B entonces P( A) P( B) o lo que es lo mismo F ( x) F( x) En efecto: [ X b] = [ X a] + [ a< X b] Aplicando a los dos miembros de la igualdad la probabilidad, se tiene: Por ser los sucesos [ X a] y [ a X b] [ ] = {[ ] + [ < ]} P X b P X a a X b < mutuamente excluyentes P[ X b] = P[ X a] + P[ a< X b] 0

Despejando Pa [ < X b] resulta: Pa [ < X b] = PX [ b] PX [ a] y teniendo presente la definición de función de distribución queda: Pa [ < X b] = Fb ( ) Fa ( ). Variable aleatoria que es lo que se quería comprobar. 5) F( x ) es continua a la derecha, es decir, Se ha de demostrar que lim F( x) = F( a) a x a x> a En efecto: lim F( x) F( a) = 0 a x a x> a lim F( x) F( a) = lim F( x) lim F( a) x a x a x a x> a x> a x> a [ ] lim Fx ( ) Fa ( ) = lim Fx ( ) Fa ( ) x a x a x> a x> a Teniendo presente la propiedad (4) resulta: [ ] lim F( x) F( a) = lim P a< X x x a x a x> a x> a lim F( x) F( a) = P lim[ a< X x] x a x a x> a x > a lim F( x) F( a) = P a< X a x a x> a [ ] { ω ω } lim F( x) F( a) = P Ω a< X( ) a x a x> a ( ] lim F( x) F( a) = P a, a x a x> a ( ) lim F( x) F( a) = P = 0 x a x > a que es lo que se quería comprobar. Interesa estudiar dos casos concretos, que son el caso discreto y el caso absolutamente continuo. Métodos estadísticos aplicados

.3 Variables aleatorias discretas Se dice que una variable aleatoria X sigue una distribución discreta, si el conjunto de valores que toma con probabilidad no nula, es finito o infinito numerable. Esto quiere decir que existe una sucesión de números reales x, x,, x n,, tal que: [ i] [ x ] P X = x = p 0 P X = 0 i i i =,,, n, En el caso discreto más que la función de distribución se utiliza la función de densidad de probabilidad que en este caso se define así: ( ) = [ = ] = 0 f x P X x p i i i f( x) = 0 si x x i i=,,, n, Son ejemplos de variables discretas, el numero de accidentes por año en una planta química, el número de piezas defectuosas producidas por una máquina, etc..3. Propiedades de la función de densidad de probabilidad (o de cuantía) en el caso discreto ) 0 f( x) x La demostración es trivial, por ser la función de densidad en el caso discreto una probabilidad. n( o ) ) f ( x ) i= i = 3) F( x) P[ X x] f ( x ) = = xi x i F(x) es la función de distribución de la variable aleatoria X o probabilidad acumulada. Ejemplo. Supóngase que en una bolsa hay tres monedas de un, dos monedas de 50 céntimos de y una moneda de 0 céntimos de. Además, que todas las monedas son del mismo tamaño y que no se pueden diferenciar con el tacto. Si se escogen dos monedas, primero una y después otra, sin devolver la primera a la bolsa, y consideramos la variable aleatoria X correspondiente a la ganancia del juego, determinar: a) La función de densidad de probabilidad. b) La función de distribución. c) P(X = ) d) P(X <,5) e) P(0,60 < X <,5)

Solución: a) Podemos esquematizar el resultado del juego mediante la siguiente tabla Primera moneda Segunda moneda Ganancia Probabilidad 3/6 /5=/5 50cens,5 3/6 /5= /5 0cens, 3/6 /5=/0 50cens,5 /6 3/5=/5 50cens 50cens /6 /5=/5 50cens 0cens 60cens /6 /5=/5 0cens, /6 3/5=/0 0cens 50cens 60cens /6 /5=/5. Variable aleatoria Se trata de una variable discreta con función de densidad X f(x)=p(x=x) /5,5 /5, /0 /5 0,60 /5 b) Para hallar la función de distribución de X tengamos en cuenta su definición F( x) = P( X x). Entonces 0 /5 3 /5 F( x) = 6 /5 /5 x < 0,60 0,60 x < x <,, x <,5,5 x < x c) Observando la función de cuantia del apartado a) tenemos que P( X = ) = /5 d) Observando la función de distribución en el apartado b) tenemos que P( X <,5) = P( X,) = 6 /5 Métodos estadísticos aplicados 3

e) Teniendo en cuenta que se trata de una variable aleatoria discreta, la probabilidad pedida viene dada por P( 0,6 < X <,5) = P( X = ) + P( X =,) = 4 /5.4 Variables aleatorias absolutamente continuas Cuando X es una variable aleatoria absolutamente continua, toma una infinidad (no numerable) de valores, por lo que no resulta apropiado hallar la probabilidad de cada valor de la variable, es de esperar que cada uno de ellos tenga probabilidad nula. Por tanto, se admitirá que para cualquier número real a se verifica PX ( = a) = 0, y sólo son susceptibles de tener probabilidad no nula los intervalos. Son ejemplos de variables aleatorias absolutamente continuas, la conversión de una reacción química, el espesor de una lámina, el tiempo de vida de un instrumento, etc..4. Definición y propiedades Se dice que una variable aleatoria X es absolutamente continua si existe una función f(x) denominada función de densidad tal que su función de distribución F(x) se puede escribir así: x F( x) = f( t) dt x La función f(x) verifica las siguientes propiedades: ) f( x) 0 ) f ( xdx ) = En efecto, ya que, x f ( x) dx = lim f ( t) dt = lim F( x) = x 3) F '( x) = f( x), cuando f(x) sea continua en x. b 4) Px ( < a b) = f( xdx ) En efecto, a x Pa ( < X b) = Fb ( ) Fa ( ) = f( xdx ) f( xdx ) b a 4

pero siendo a< b, y entonces resulta: b a b f ( xdx ) = f( xdx ) + f( xdx ) a. Variable aleatoria a b a b P( a< X b) = f( x) dx+ f( x) dx f( x) dx= f( x) dx a a La propiedad () expresa que la curva representativa de la función de densidad f(x) se encuentra por encima del eje de abscisas. La propiedad () expresa que el área total bajo la curva de la función de densidad vale la unidad. Ejemplo. Sea X una variable absolutamente continua de función de densidad de probabilidad: f X k + x si x ( x) = 0 si x ( 0,3) ( ) (0,3) Se pide: a) Hallar la constante k y la función de distribución de probabilidad. b) Probabilidad de que X esté comprendido entre y. c) Probabilidad de que X sea menor que. d) Sabiendo que X es mayor que, probabilidad de que sea menor que. Solución: a) Se verifica: 0 3 f ( xdx ) = f ( x) dx+ f( x) dx+ f( x) dx= 0 3 Al ser f( x ) = 0 si x (0,3), las integrales primera y tercera son nulas y entonces queda: 3 f ( xdx= ) ; k ( + x ) dx = ; 0 3 0 k = k = 3 x k x+ = 3 3 0 Métodos estadísticos aplicados 5

La función de distribución asociada a la función de densidad de probabilidad es: 0 si x 0 x 3 x F( x) = f( t) dt = x+ si0 < x< 3 3 si x 3 b) 3 x 8 5 P( < X < ) = ( + x ) dx= x+ = + = 3 3 3 8 c) PX ( < ) = PX ( ) = F() = + = 3 9 d) Es una probabilidad condicionada: ([ > ] [ < ]) < < P( X ) P( X ) P X X P( X ) 5/8 5 P( [ X < ][ X > ] ) = = = = > 8/9 6.4. Comparación del caso discreto con el absolutamente continuo En el caso discreto, f ( x) = P( X = x). En el caso absolutamente continuo, f ( x) P( X = x). Es decir, en el discreto, la función de densidad representa una probabilidad y, por tanto, no puede valer más de. En el absolutamente continuo, la función de densidad de probabilidad no representa una probabilidad y, por tanto, puede valer más de. No obstante, en el caso absolutamente continuo, f ( xdx ) se interpreta como la probabilidad infinitesimal de que la variable aleatoria X alcance valores dentro del intervalo ( x, x+ dx) (véase la figura.). f(x) f(x) x x+ dx Figura. X En el discreto, la probabilidad de que X tome un valor cualquiera a es: PX ( = a) 0 En el absolutamente continuo, la probabilidad de que X tome un valor cualquiera a es nula; es decir: a PX ( = a) = Pa ( < X< a) = f( xdx ) = 0 a 6

En el caso discreto, nos valemos de puntos para introducir la probabilidad, mientras que en el absolutamente continuo, nos valemos de intervalos, debido a ser nula la probabilidad en cada punto. En el discreto, cualquier probabilidad es la suma de probabilidades asociadas a puntos. En el absolutamente continuo, cualquier probabilidad es una integral definida, asociada a un intervalo, verificándose: b Pa ( < X b) = Pa ( < X< b) = Pa ( X< b) = Pa ( X b) = Fb ( ) Fa ( ) = f( xdx ) a. Variable aleatoria.5 Distribución conjunta de dos variables aleatorias Sea ( Ω, a,p) un espacio de probabilidades y, X e Y dos variables aleatorias definidas sobre él. Cada una de ellas es una aplicación de Ω en ; por tanto, el par aleatorio (X, Y) permite definir una aplicación de Ω en el producto cartesiano como sigue: Ω ω Y (x,y) ( XY), : Ω ( ) ω X ( ω), Y( ω) = ( x, y) X Se define una función de dos variables, que es la función de distribución conjunta del par aleatorio (X, Y), de la siguiente manera: { ω [ ω ] [ ω ]} F( xy, ) = P Ω X( ) x Y( ) y o en forma resumida: {[ ] [ ]} F( xy, )= P X x Y y La función de distribución F( xy, ) tiene las siguientes propiedades: ) 0 F( x, y) ) lim F( x, y) = 0 y lim F( x, y) = x o y x e y Métodos estadísticos aplicados 7

3) lim F( xy, ) = F ( x ) siendo F ( x ) la función de distribución marginal de la variable aleatoria X. x fija y lim F( xy, ) = F( y ) siendo F ( ) y la función de distribución marginal de la variable aleatoria Y. y fija x 4) P{ [ a< X b] [ c< Y d] } = Fbd (, ) Fad (, ) Fbc (,) + Fac (,) Y d (a,d) (b,d) c (a,c) (b,c) a b X Existen dos casos diferenciados: el caso discreto y el caso absolutamente continuo..5. Distribuciones bivariantes discretas Supóngase que X e Y son ambas discretas, o sea: X : x, x,, x, Y : y, y,, y, n m Entonces el par aleatorio (X, Y) tomará los valores ( i, j) x y. La función de densidad conjunta en el caso discreto, se define así: ( i, j) = ([ = i] = j ) = ij = ( i, j) f x y P X x Y y p P x y La función de densidad conjunta verifica las siguientes propiedades: ) 0 f( x, y ) ij i j ) p = i j 3) F( xy, ) = f( xi, y j) siendo F( xy, ) la función de distribución conjunta del par xi x y y aleatorio (X, Y). j 8

.5. Funciones de densidad marginales en el caso discreto Conociendo la distribución conjunta del par (X, Y) es posible determinar las distribuciones de X e Y por separado, denominadas distribuciones marginales. La función de densidad marginal de la variable aleatoria X viene dada por: ( i )= [ = i] = f x P X x p ij j. Variable aleatoria En efecto, ( i ) [ ] [ ] X = xi = X = x Y = y j j Los sucesos de la forma [ = ] = X xi Y y j son mutuamente excluyentes, por tanto: [ ] [ ] ( ) P X = xi = P X = xi Y = yj = p ij j Análogamente, la función de densidad marginal de la variable aleatoria Y viene dada por: f ( y ) = = j P Y yj = pi j Ejemplo.3 Supónganse las variables aleatorias discretas X e Y con función de probabilidad conjunta dada por la siguiente tabla: i j Y X y =4 y =5 x =3 0,7 0,0 x =0 0,3 0,30 x 3 = 0,5 0,05 Se pide: a) Hallar las funciones de densidad marginales. b) Hallar los valores de la función de distribución conjunta F ( x, y ), F ( x, y ) y (, ) F x y. 3 c) Determinar f (0 '5,5) y F(0 '5, 5). d) Función de distribución marginal de : ( ) e) Función de distribución marginal de : ( ) X F x. Y F y. Solución: a) La función de densidad marginal de X se obtendrá sumando, para cada valor de X, los valores de la función de densidad conjunta, resultando: ( ) [ ] f x = f (3) = P X = 3 = f (3, 4) + f (3, 5) = 0,7 + 0,0 = 0,7 ( ) [ ] f x = f (0) = P X = 0 = f (0, 4) + f (0, 5) = 0,3 + 0,30 = 0,43 ( ) [ ] f x = f () = P X = = f (, 4) + f (, 5) = 0,5 + 0,05 = 0,30 3 Métodos estadísticos aplicados 9

Se verifica que: f ( x ) + f ( x ) + f ( x ) = 0,7 + 0,43 + 0,30 = 3 La función de densidad marginal de Y se obtendrá sumando, para cada valor de Y, los valores de la función de densidad conjunta, resultando: Se verifica que: b) ( ) [ ] f y = f (4) = P Y = 4 = f (3,4) + f (0,4) + f (,4) = 0,7 + 0,3 + 0,5 = 0,55 ( ) [ ] f y = f (5) = P Y = 5 = f (3, 5) + f (0, 5) + f (, 5) = 0,0 + 0,30 + 0,05 = 0,45 f ( y ) + f ( y ) = 0,55+ 0,45= ( ) ([ ] [ ]) F x, y = F(0,4) = P X 0 Y 4 = f(3,4) + f(0,4) = 0,7+ 0,3= 0,30 (, ) (0,5) ([ 0] [ 5] ) F x y = F = P X Y = = f(3, 4) + f(3, 5) + f(0, 4) + f(0, 5) = 0,7 + 0,0 + 0,3 + 0,30 = 0,70 ( 3, ) (,5) ([ ] [ 5] ) F x y = F = P X Y = = f(3, 4) + f(3, 5) + f(0, 4) + f(0, 5) + f(, 4) + f(, 5) = c) ([ ] [ ]) ( [ ]) ( ) ([ ] [ ]) f(0'5, 5) = P X = 0 '5 Y = 5 = P Y = 5 = P = 0 F(0'5, 5) = P X 0'5 Y 5 = f(3, 4) + f(3,5) + f(0, 4) + f(0,5) = 0,7 d) Función de distribución marginal X : F( x) F x F P[ X ] f f ( ) = (0) = 0 = (3) + (0) = 0,7 + 0,0 + 0,3 + 0,30 = 0,7 e) Función de distribución marginal Y : F( y) F y F P[ Y ] f f ( ) = (5) = 5 = (4) + (5) = 0,7 + 0,3 + 0, 5 + 0,0 + 0,30 + 0,05 =.5.3 Distribuciones bivariantes absolutamente continuas Se dice que el par aleatorio (X, Y) tiene una distribución conjunta bivariante absolutamente continua si existe una función (, ) f xy, llamada función de densidad bivariante, tal que: Se verifica: ) f( x, y) 0 x y = F( xy, ) fuvdudv (, ) f ) ( ) x, y dx dy = 30

3) F( x, y) = f ( xy, ) si f es continua en (x, y). x y bd < < < < = ac 4) ([ ] [ ]) (, ) P a X b c Y d f x y dxdy 5) f ( xy, ) no es exactamente una probabilidad, pero f ( xydxdy, ) se interpreta como la probabilidad infinitesimal sobre el rectángulo de vértices (x, y), (x+dx, y), (x, y+dy) y (x+dx, y+dy). Es decir: ([ ] [ ]) f ( x, y) dx dy = P x < X < x + dx y < Y < y + dy. Variable aleatoria.5.4. Funciones de densidad marginales en el caso absolutamente continuo En el caso absolutamente continuo las funciones de densidad marginales son: f ( x) = f( x, y) dy f ( y) = f( x, y) dx.6 Independencia estocástica de variables aleatorias Dos variables aleatorias, X e Y, son estocásticamente independiente si, y sólo si, la función de distribución conjunta es el producto de las funciones de distribución marginales. Esto se cumple en general, o sea, tanto en el caso discreto como en el caso absolutamente continuo. X, Y variables aleatorias independientes F( x, y) = F ( x) F ( y) En efecto: ([ ] [ ]) ([ ]) ([ ]) F( x, y) = P X x Y y = P X x P Y y = F( x) F ( y).6. Independencia de dos variables aleatorias en el caso discreto Dos variables aleatorias, X e Y, son estocásticamente independientes si, y sólo si, la función de densidad conjunta es el producto de las funciones de densidad marginales. f ( xi, yj) = f( xi) f( yj) para todo par de números reales ( xi, y j). En efecto, ( i, j) = ([ = i] = j ) = ([ = i] ) ( = j ) = ( i) ( j) f x y P X x Y y P X x P Y y f x f y.6. Independencia de dos variables aleatorias en el caso absolutamente continuo Dos variables aleatorias, X e Y, son estocásticamente independientes si, y sólo si, la función de densidad conjunta es el producto de las funciones de densidad marginales. (, ) = ( ) ( ) f xy f x f y Métodos estadísticos aplicados 3

En efecto, por la propiedad (3) de la sección.5.3. F( x, y) f( x, y) = = x y [ F( x) F ( y) ] x y = = y x y x = f ( y) f ( x) = f ( x) f ( y) [ F( x) F ( y) ] [ F ( y) ] [ F( x) ].7 Función de distribución condicional de X en el caso discreto La función de distribución condicional de X en el caso discreto se define así: = F y >. con ( j ) 0 ( i j) G x y ( i, j) ( yj ) F x y = F Es aquella que asigna a cada número real x i la probabilidad de que X sea menor o igual que x i, bajo la condición de que Y sea menor o igual que y j, es decir, ([ ] ) (, ) ( y j ) P X x Y y F x y G( xi yj) = P( [ X xi] Y yj ) = = P( Y yj ) F.8 Función de distribución condicional de Y en el caso discreto i j i j con ( ) Viene dada por la expresión siguiente: F x >. i 0 ( j xi) H y ( i, j) F x y = F ( xi ) En efecto: ([ ] ) P( [ X xi ]) ( j [ i] ) P( [ X xi ]) P Y y X x H( yj xi) = P( Y yj [ X xi] ) = (, ) P X x Y y F x y = = F i j i j ( xi ) =.9 Función de densidad condicional de X en el caso discreto Viene dada por la siguiente expresión: f y >. con ( j ) 0 ( i j) ( i j) g x y = g x Y = y = f ( xi, yj) f ( y j ) 3

En efecto, ([ = ] = ) (, ) f ( y j ) P X x Y y f x y g( xi yj) = P( [ X = xi] Y = yj ) = = P( Y = yj ).0 Función de densidad condicional de Y en el caso discreto Viene dada por la siguiente expresión: con ( ) f x >. i 0 ( j i) ( j i) h y x = h y X = x = i j i j f ( xi, yj) f ( xi ). Variable aleatoria En efecto, ( [ ]) ([ i] ) ([ ] ) ([ i] ) (, ) P Y = y X = x P X = x Y = y f x y h( yj xi) = P( Y = yj [ X = xi] ) = = = P X = x P X = x f j i i j i j. Función de densidad condicional de X en el caso absolutamente continuo Es una función de x, que viene dada por la siguiente expresión: con f( y 0) > 0. ( 0 ) g x y = f ( xy, 0 ) ( y ) f 0. Función de densidad condicional de Y en el caso absolutamente continuo Es una función de y que viene dada por la siguiente expresión: con f( x 0) > 0. ( 0 ) h y x = ( 0, ) ( x ) f x y Observación: La fórmula general de la función de densidad conjunta en el caso discreto es: a) f ( xi, yj) = f( xi) h( yj xi) = g( xi yj) f( yj) f 0 ( x ) i En el caso particular de que las variables aleatorias X e Y son estocásticamente independientes, se sabe que se cumple: b) f ( xi, yj) = f( xi) f( yj) Comparando a) y b) resulta: Si las variables aleatorias X e Y son estocásticamente independientes se verifica que cualquiera que sea y j y cualquiera que sea x i. ( i j) = ( i) g x y f x ( j i) = ( j) h y x f y Métodos estadísticos aplicados 33

O sea, si las variables aleatorias X e Y son estocásticamente independientes se verifica que cada distribución condicional de X, para cada uno de los valores posibles de Y, es igual que la distribución marginal de X y que cada distribución condicional de Y, para cada uno de los valores posibles de X, es igual que la distribución marginal de Y..3 Esperanza matemática.3. Sentido probabilístico de la esperanza matemática Supóngase que se han realizado N pruebas, en las cuales la variables aleatoria X ha tomado f veces el valor x, f veces el valor x,..., f n el valor x n ; además, f+ f + + fn = N. En este caso, la suma de todos los valores tomados por X, es igual a x f + x f + + x f. n n Se halla la media aritmética X de todos los valores tomados por la variable aleatoria, para lo cual se divide la suma obtenida por el número total de pruebas: xf+ xf+ + xnfn X = N La relación f /N es la frecuencia relativa f R del valor x, f /N es la frecuencia relativa etc., por tanto, la expresión (.) se puede escribir como: R R n Rn (.) f R de x, X = xf + xf + + xf (.) Supóngase que el número de pruebas es bastante grande. Entonces la frecuencia relativa es aproximadamente igual a la probabilidad de aparición del suceso (esto se demostrará posteriormente). Sustituyendo en (.) las frecuencias relativas por las correspondientes probabilidades, se obtiene: [ = ] + [ = ] + + [ = ] X x P X x x P X x x P X x. n n El segundo miembro de esta igualdad aproximada es la esperanza de la variable aleatoria X, o sea: E( X ). El sentido probabilístico del resultado obtenido es: La esperanza matemática es aproximadamente igual (tanto más exacto, cuanto mayor es el número de pruebas) a la media aritmética de los valores observados de la variable aleatoria. Dicho de otra forma: La esperanza matemática es una generalización del concepto de media aritmética..3. Esperanza matemática de una variable aleatoria discreta Supóngase que X es una variable aleatoria que alcanza los valores: x, x,, x n, con las probabilidades: f ( x), f ( x),, f ( x n ), siendo ( ) = [ = ] f x P X x i Se definirá como esperanza matemática de la variable aleatoria X a la expresión: n( o ) n( o ) i i [ i] i ( x i ) (.3) E( X) = x P X = x = x f i= i= 34

Si la variable aleatoria X toma infinitos valores, la expresión de E( X ) es una serie. Si la serie es convergente, la E( X ) existe. Si la serie es divergente u oscilante, la esperanza no existe (no esta definida). A la esperanza de una variable aleatoria X también se la llama valor esperado o valor medio de la variable aleatoria X.. Variable aleatoria Ejemplo.4 (continuación de.) Cuál es la ganancia esperada del juego? Solución: Para hallar la ganancia esperada del juego deberemos hallar E(X ). E ( X ) = 0,60 + +, +,5 + =,37. 5 5 0 5 5.3.3 Esperanza matemática de una variable aleatoria absolutamente continua Supóngase que se tiene una variable aleatoria X con función de densidad f ( x ). La esperanza X se define así: E( X) = x f( x) dx (.4) Ejemplo.5 (continuación de.) Cuál es la esperanza matemática de X? Solución: Hallaremos la esperanza de X a partir de su definición. Esto es Resulta 3 E( x) = x f X ( x) dx. 3 4 [ x ] + [ ] E( x) = ( ) 0 x + x dx = x 4 0 3 0 = 9 8 + = 4 33 6..3.4 Significado de la esperanza ) La esperanza es el valor medio teórico de los valores que alcanza la variable aleatoria. Es una medida de centralización. Métodos estadísticos aplicados 35

) La esperanza matemática de una variable aleatoria X se interpreta como el centro de gravedad de la distribución. f(x ) f(x ) f(x 3 ) f(x 4 ) x x x 3 x 4 X x x x 3 x 4 X E(X) E(X) 3) Si la variable aleatoria X describe la ganancia ó pérdida en un juego, la esperanza matemática indica la ganancia media que se espera obtener por cada jugada. Si la esperanza es cero, se dice que el juego es equitativo, si la esperanza es positiva se dice que el juego es favorable y si la esperanza es negativa se dice que el juego es desfavorable..3.5 Propiedades de la esperanza matemática Antes de establecer las propiedades de la esperanza enunciaremos los dos siguientes teoremas: Teorema.: Si X es una variable aleatoria con función de densidad f ( x ) e Y = g(x ) es otra variable aleatoria construida a partir de la variable aleatoria X, mediante la función g, la E(Y) en el caso discreto viene dada por: y en el caso absolutamente continuo por: ( ) ( ) E( Y) = g xi f xi i E( Y) = g( x) f( x) dx Teorema.: Sean X e Y dos variables aleatorias con función de densidad conjunta f ( xy., ) Construyamos la variable aleatoria Z = g( X, Y). En el caso discreto, la E( Z ) viene dada por: y en el caso absolutamente continuo por: ( i j) ( i j) E( Z) = g x, y f x, y i j Propiedades: E( Z) = g( x, y) f( x, y) dxdy ) La esperanza matemática de una constante c es igual a la misma constante. ) La esperanza matemática de la suma de varias variables aleatorias es igual a la suma de las esperanzas matemáticas de los sumandos. Para el caso de dos variables aleatorias X e Y, se tiene: E( X + Y) = E( X) + E( Y). 36

Esta propiedad se cumple tanto si las variables aleatorias X e Y son estocásticamente independientes como si son dependientes. p p 3) Un factor constante se puede sacar fuera del signo de esperanza matemática: E( cx ) = c E( X ) 4) Teniendo en cuenta las propiedades anteriores:. Variable aleatoria E( ax + by + c) = ae( X ) + be( Y ) + c 5) La esperanza matemática del producto de dos variables aleatorias independientes es igual al producto de sus esperanzas matemáticas:.3.6 Esperanza matemática condicional E( X Y) = E( X) E( Y) La distribución condicional de las probabilidades es una característica importante de la esperanza matemática condicional. Se denomina esperanza matemática condicional de una variable aleatoria discreta Y para X = x (x es un valor posible determinado de X) el producto de los valores posibles de Y por sus probabilidades condicionales: En el caso absolutamente continuo: ( ) j ( j ) E YX= x = yhy x (.5) ( ) ( ) j E YX= x = yhyxdy (.6) donde h( y x) es la función de densidad condicionada de la variable aleatoria Y cuando X = x. Análogamente se determina la esperanza matemática condicional de la variable aleatoria X para Y = y (siendo y un valor posible determinado Y). Ejemplo.6 La distribución conjunta de dos variables aleatorias X e Y está dada por la siguiente tabla: Y X y = 3 y = 6 x = 0,5 0,30 x = 3 0,06 0,0 x 3 = 4 0,5 0,03 x 3 = 8 0,04 0,07 Determinar la esperanza matemática condicional de la variable aleatoria Y si X = x =. Solución: Hallamos f( x ), para ello sumamos las probabilidades de la primera fila de la tabla: ( ) f x = f () = 0,5 + 0,30 = 0, 45 Métodos estadísticos aplicados 37

Hallamos la distribución condicional de las probabilidades de la variable aleatoria Y para X = x = : ( ) h( 3) h y x ( ) h( 6) h y x ( ) f,3 0,5 = = = = f () 0, 45 3 ( ) f, 6 0,30 = = = = f () 0, 45 3 Hallamos la esperanza matemática condicional pedida aplicando la fórmula: EYX ( = x) = yhy j ( j x) = y hy ( x) + y hy ( x) = 3 h( 3) + 6 h( 6) = 3 + 6 = 5 3 3 j=.4 Varianza de una variable aleatoria La varianza mide la dispersión media de los valores de una variable respecto a su valor medio. En el caso de una muestra x, x,, x n, la dispersión de un valor x i respecto a X, se puede medir por ( x i X ) y la media aritmética de esta dispersión es: n n f s = x X = x X f X = x i N i ( i ) ( i ) R[ ] i= i= llamada varianza de la muestra. Su generalización para una variable aleatoria es: Si X es una variable aleatoria con esperanza finita E(X), se llama varianza de X, a la esperanza Y = X E( X), es decir: de la nueva variable [ ] [ ] σ = var ( X ) = E X E( X) (.5) La raíz cuadrada positiva de var ( X ) se llama desviación típica o desviación estándar y se indica por σ. Observación: El número var ( X ) está expresado en unidades cuadradas de X. Esto es, si X se mide en minutos, entonces var ( X ) está expresada en (minutos). Esta es una razón para considerar la desviación estándar que se expresa en las mismas unidades que X..4. Varianza de una variable aleatoria discreta Supóngase que X es una variable aleatoria que alcanza los valores: x, x,, x n, con las probabilidades: siendo ( ) ( ) ( ),,,, f x f x f x n ( ) = [ = ] f x P X x La varianza de la variable aleatoria X viene dada por la expresión: no ( ) no ( ) i i [ i ] [ i] [ i ] ( ) (.6) var ( X ) = x E( X) P X = x = x E( X) f x i i= i= 38

Ejemplo.7 (continuación de.): Hallar la varianza y la desviación estándar. Solución: De la definición var( X ) = (0,60,37) 5 Finalmente, la desviación estándar es + (,37) 5 + (,,37) 0 + (,5,37) 5 + (,37) = 0,8 5. Variable aleatoria σ ( X) = var( X) = 0,8 = 0,43.4. Varianza de una variable aleatoria absolutamente continua Supóngase que se tiene una variable aleatoria X absolutamente continua con función de densidad f ( x ). La varianza de la variable aleatoria X viene dada por la expresión:.4.3 Propiedades de la varianza: [ ] (.7) var ( X ) = x E( X) f( x) dx ) La varianza es siempre positiva o nula dado que [ ] X E( X) 0. ) La varianza se puede obtener también mediante la fórmula: 3) La varianza de una constante es nula 4) Si c es una constante: 5) Si c es una constante: ( ) var ( X ) = E X E ( X) (.8) var ( c ) = 0 (.9) var ( X + c) = var ( X) (.0) var ( cx ) = c var ( X ) (.) 6) Si X e Y son variables aleatorias estocásticamente independientes entonces: y var ( X + Y) = var ( X) + var ( Y) (.) var( X Y) = var( X) + var( Y) (.3) Métodos estadísticos aplicados 39

7) Si X e Y son variables aleatorias cualesquiera entonces: y, de forma equivalente, var ( X + Y) = var ( X) + var ( Y) + cov( X, Y) (.4) var ( X Y) = var ( X) + var ( Y) cov( X, Y) (.5) 8) Si X e Y son dos variables aleatorias estocásticamente independientes entonces: 9) Si X e Y son dos variables aleatorias cualesquiera entonces: y, de forma equivalente. var ( ax + by + c) = a var ( X ) + b var ( Y ) (.6) var ( ax + by ) = a var ( X ) + b var ( Y ) + abcov( X, Y ) (.7) var ( ax by ) = a var ( X ) + b var ( Y ) abcov( X, Y ) (.8) Ejemplo.8 (continuación de.): Hallar la varianza y la desviación estándar. Solución: Para hallar la varianza, tendremos en cuenta la igualdad Hallemos E( X ). Por tanto, E( X 3 var( X ) = EX ( ) E( X) 3 3 5 [ x ] + [ ] ) = ( ) 0 x + x dx = x 3 5 0 4 33 var( X ) = = 5 6 Finalmente, la desviación estándar es 3 0 699 80 = σ ( X) = var( X) = 0,546 = 0,739 7 43 + = 3 5 4 5.5 Teorema de Tchebychev Sea X una variable aleatoria con distribución cualquiera y con esperanza y varianza finitas. La probabilidad de que la variable aleatoria X caiga dentro de k desviaciones estándar de la media es al menos k. 40

Esto es, o en forma más resumida: ( μ σ < < μ+ σ) P k X k { μ < σ} P X k k k. Variable aleatoria Haciendo h= kσ, se puede escribir: σ P{ X μ < h} h siendo μ la esperanza matemática de la variable aleatoria X y σ su varianza. El teorema de Tchebychev también se puede expresar así: σ P{ X μ h} h es decir, la probabilidad de que la variable aleatoria X se aparte de su esperanza en una cantidad mayor o igual que h (h >0) es menor o igual que σ / h. Únicamente se demostrará el caso absolutamente continuo, dejando el caso discreto como ejercicio para el lector. Demostración: A partir de la definición previa de la varianza de X, se puede escribir: ( ) σ = E X μ = ( x μ) f( x) dx= μ kσ μ+ kσ = ( x μ) f( x) dx+ ( x μ) f( x) dx+ ( x μ) f( x) dx μ kσ μ+ kσ μ kσ ( x μ) f( x) dx+ ( x μ) f( x) dx μ+ kσ ya que la segunda de las tres integrales no es negativa. Como x μ kσ siempre que x μ + kσ ó x μ kσ, se tiene ( ) x μ k σ en las dos integrales restantes. De aquí se desprende que: μ kσ σ k σ f( x) dx+ k σ f( x) dx μ+ kσ kσ f( xdx ) + f( xdx ) σ μ+ kσ μ kσ Métodos estadísticos aplicados 4

Dividiendo los dos miembros de la desigualdad por μ kσ k σ se tiene: f( x) dx+ f( x) dx k μ+ kσ Multiplicando por ( ) los dos miembros de la desigualdad: μ kσ f( x) dx f( x) dx μ+ kσ k Sumando a los dos miembros de la desigualdad: μ kσ f( x) dx f( x) dx μ+ kσ k Teniendo presente que resulta: μ kσ μ+ kσ μ+ kσ μ kσ que es lo que se quería comprobar. f ( xdx ) + f( xdx ) + f( xdx ) = μ kσ μ+ kσ f( x) dx= P k < X < + k k ( μ σ μ σ) Para k = el teorema establece que la variable aleatoria X tiene por lo menos una probabilidad de (/) = 3/4 de caer entre dos desviaciones estándar de la media. Es decir, tres cuartas partes o más de las observaciones de cualquier distribución se encuentran en el intervalo μ ± σ. Análogamente el teorema afirma que al menos 8/9 de las observaciones de cualquier distribución se encuentran en el intervalo μ ± 3σ. El teorema de Tchebychev proporciona la cota inferior de la probabilidad, pero no su valor exacto. Se sabe que la probabilidad de que una variable aleatoria caiga dentro de dos desviaciones estándar alrededor de su media no puede ser menor de 3/4, pero no se sabe el valor exacto de la probabilidad. En el caso de que se conozca la distribución de probabilidad que sigue la variable aleatoria X se podrá determinar el valor exacto de la probabilidad. Ejemplo.9 Una variable aleatoria X tiene una media μ = 00, una varianza σ = 6, y una distribución de probabilidad desconocida. Acotar: ( ) b) P{ X 00 8} a) P 84 < X < 6. 4

Solución: 5 (84 < < 6) = 00 (4) (4) < < 00 + (4) (4) = 4 6 a) P X P[ X ] b) ya que { 00 8} = { 00 < 8} = = P( 8 < X 00 < 8) = = P( 9 < X < 08) = = P[ 00 () (4) < X < 00 + () (4) ] P X P X 4 P 3 < < +. 4 [ 00 () (4) X 00 () (4)] Multiplicando por ( ) los dos miembros de la desigualdad: 3 P[ 00 () (4) < X < 00 + () (4) ] 4 y finalmente sumando a los dos lados miembros resulta: P[ 00 () (4) < X < 00 + () (4) ] 4.6 Momentos de una variable aleatoria X respecto del origen Dada una variable aleatoria X, se llama momento de orden r (respecto del origen), a la r esperanza de la variable X : si existe..6. Caso discreto mr r ( ) = E X Sea X una variable aleatoria discreta con función de densidad f ( x ). El momento de orden r (respecto del origen) de la variable aleatoria X es: r r r = ( ) = ( ) m E X x f x Se observa que el momento de er orden (respecto del origen) es la esperanza ó media: m = E( X) = x f( x) = μ 43

.6. Caso absolutamente continuo Sea X una variable aleatoria continua con función de densidad f ( x ). El momento de orden r (respecto del origen) de la variable aleatoria X es: r r ( ) ( ) mr = E X = x f x dx El momento de er orden (respecto del origen) es la esperanza ó media: m = E( X) = xf( x) dx= μ.7 Momentos centrales de una variable aleatoria X Dada una variable aleatoria X, se denomina momento central de orden r (respecto de la X E( X) r, o sea: esperanza de X), a la esperanza de la variable [ ].7. Caso discreto [ ] μ ( ) r r = E X E X Sea X una variable aleatoria discreta con función de densidad f ( x ). El momento central de orden r de la variable aleatoria X viene dado por: r [ ] [ ] μ r = E X E( X) = x E( X) f( x) Obsérvese que el momento central de º orden es la varianza X, representada por var ( X ) y también por σ : [ ] [ ] ( ) μ = E X E( X) = x E( X) f( x) = x μ f( x) = var( X) = σ.7. Caso absolutamente continuo r Sea X una variable aleatoria continua con función de densidad f ( x ). El momento central de orden r de la variable aleatoria X viene dado por: r [ ] [ ] μ r = E X E( X) = x E( X) f( x) dx r El momento central de º orden es la varianza de X: [ ] ( ) μ = E X E( X) = x μ f( x) dx= var( X) = σ 44

.8 Momento de dos variables aleatorias respecto del origen Sea X y X dos variables aleatorias. Se denomina momento de orden r+ r (respecto del origen) de las variables aleatorias X y X a la expresión: si existe la esperanza. r r ( ) m = E X X rr. Variable aleatoria.8. Caso discreto Sean X y X dos variables aleatorias discretas con función de densidad conjunta (, ) momento de orden r + r (respecto del origen) de las variables aleatorias X y X es:.8. Caso absolutamente continuo r r r r = ( ) = (, ) m E X X x x f x x rr f x x. El Sean X y X dos variables aleatorias continuas con función de densidad conjunta (, ) momento de orden r + r (respecto del origen) de las variables aleatorias X y X es: r r r r = ( ) = (, ) m E X X x x f x x dxdx rr.9 Momentos centrales de dos variables aleatorias f x x. El Sean X y X dos variables aleatorias. Se denomina momento central de orden r+ r (respecto de las esperanzas de X y X ) de las variables aleatorias X y X a la expresión:.9. Caso discreto r { ( ) ( ) } r μ rr = E X E X X E X Sean X y X dos variables aleatorias discretas con función de densidad conjunta f ( x, x. El momento central de orden r + r de las variables aleatorias X y X es: ) rr r r { ( ) ( ) } μ = E X E X X E X = r r ( ) ( ) (, ) = x E X x E X f x x Métodos estadísticos aplicados 45

.9. Caso absolutamente continuo Sean X y X dos variables aleatorias continuas con función de densidad conjunta (, ) momento central de orden r + r de las variables aleatorias X y X es: f x x. El μ rr r r { ( ) ( ) } = E X E X X E X = r r ( ) ( ) (, ) = x E X x E X f x x dxdx.0 Covarianza de dos variables aleatorias X e Y La covarianza de dos variables aleatorias X e Y es por definición el momento central de orden +. Es decir: {[ ] [ ]} cov( X, Y) = μ = E X E( X) Y E( Y) (.9) σ XY. La covarianza entre las variables aleatorias X e Y se representa por cov( X, Y ) y también por.0. Propiedades La covarianza tiene las siguientes propiedades: ) cov( X, Y) = E( X Y) E( X) E( Y) ) cov( X, Y) = cov( Y, X ) 3) cov( X + ay, ) = cov( X, Y) 4) cov( ax, Y ) = acov( X, Y ) 5) cov( ax, by ) = abcov( X, Y) 6) cov( X + YZ, ) = cov( XZ, ) + cov( YZ, ) 7) Combinando las propiedades anteriores: cov( ax + by + c, dz + ew + f ) = = ad cov( X, Z) + aecov( X, W) + bd cov( Y, Z) + becov( Y, W) 8) Si X e Y son variables aleatorias estocásticamente independientes su covarianza es cero. El recíproco no es cierto; es decir puede ser nula la covarianza de dos variables aleatorias y no ser éstas independientes. La covarianza proporciona una medida del grado de dependencia entre X e Y. La covarianza tiene el inconveniente de que es proporcional a la magnitud de las variables aleatorias. Es decir, da el 46