Probabilidades y Estadísticas
|
|
- José Ángel Cristián Morales Iglesias
- hace 6 años
- Vistas:
Transcripción
1 Facultad de Ciencias Físicas y Matemtáticas, Universidad de Chile Apuntes de Clases Profesor: Roberto Cortez Tomás Wolf y Pedro Franz 6 de febrero de 2014 Santiago, Chile.
2 Índice general I Probabilidades 1 1. Teoría axiomática de probabilidades Introducción Espacio muestral y eventos Axiomas de Probabilidad Proposiciones sobre probabilidades Probabilidad del vacío Probabilidad del Complemento Monotonía de la Probabilidad Probabilidad de eventos no disjuntos Continuidad de la Probabilidad Combinatoria Espacio Equiprobable Ejemplo Principios de conteo Principio aditivo Principio multiplicativo Permutaciones Subconjuntos Coeficiente multinomial Bolitas en Urnas Ejemplo Resumen Probabilidades Condicionales Introducción Ejemplo Definición Ejemplo Propiedad (regla de Bayes) Ejemplo Propiedad (regla de probabilidades totales) Independencia de eventos Introducción Definición Propiedad
3 Sección ÍNDICE GENERAL Definición Propiedad Variables aleatorias Introducción Definición: Variable Aleatoria Definición: Distribución de X Proposición Ejemplo Variables discretas Definición: Rango de X Definición: función de distribución discreta Proposición Propiedad Ejemplos importantes de variables aleatorias discretas Variable Bernoulli Variable Binomial Variable Geométrica Variable Binomial Negativa Variable de Poisson Variables Continuas Función de distribución acumulada Proposición Proposición Variables Continuas Importantes Variable Uniforme Variable Exponencial Variable Normal Independencia de variables aleatorias Proposición Esperanza Definición Ejemplos Proposición Proposición: Linealidad de E Ejemplo Proposición: Esperanza de variables independientes Proposición: Crecimiento de E( ) Varianza y Covarianza Definición: Varianza Ejemplos de varianza Propiedades de la Varianza Función Generadora de Momentos Definición Ejemplo Proposición
4 Sección ÍNDICE GENERAL Teorema Proposición: estabilidad bajo la suma Distribución de una función de una variable aleatoria Ejemplo: X N (0, 1) Vectores Aleatorios Definición: Vector Aleatorio Definición: Función de Distribución Acumulada Conjunta Proposición Definición Definición
5 Parte I Probabilidades 1
6 Capítulo 1 Teoría axiomática de probabilidades 1.1. Introducción Un suceso C(n) es la cantidad de veces que aparece el suceso C en n experimentos aleatorios. La probabilidad de un suceso es intuitivamente Espacio muestral y eventos C(n) lím n n Definición: Un espacio muestral es un conjunto Ω que contiene todos los posibles resultados de un experimento aleatorio. Un evento es un subconjunto E Ω, en que Ω no necesita ser numerable. Los elementos de Ω se anotan como ω. Cuando el resultado del experimento es un cierto ω E, decimos que E ocurre Axiomas de Probabilidad Def: Sea Ω espacio muestral, una probabilidad sobre Ω es una función P: P : P(Ω) R que satisface los siguientes 3 axiomas de probabilidad. Axioma 1: 0 P(E) 1 E P(Ω) Axioma 2: P(Ω) = 1 Axioma 3: E i i N colección de eventos disjuntos, (E i E j = φ), (E i E j = E i E j i,j ) se tiene: P( (Ω, P) se denomina espacio de probabilidad. i N E i ) = i N P(E i ) 2
7 Sección 1.3. Proposiciones sobre probabilidades Proposiciones sobre probabilidades Probabilidad del vacío P(φ) = 0 Demostración: Tomando E i = φ i N tenemos: P( i N E i }{{} φ ) = P( E }{{} i ) φ 1 P(φ) = P(φ) P(φ) = 0 P(φ) = 0 Corolario: E 1, E 2,..., E n disjuntos, P( n E i ) = n P(E i ) Probabilidad del Complemento P(E c ) = 1 P(E) 1 = P(Ω) = P(E E c ) = P(E) + P(E c ) P(E c ) = 1 P(E) Monotonía de la Probabilidad Si E F P(E) P(F ). Es decir, P( ) es creciente conforme crecen los eventos. Demostración: P(F ) = P(F E F E c ) = P(F E) }{{} pero E F +P(F E c ) = P(E) + P(E c F ) P(E)
8 Sección 1.3. Proposiciones sobre probabilidades Probabilidad de eventos no disjuntos E, F eventos, P(E F ) = P(E) + P(F ) P(EF ). Demostración: P(E F ) = P(EF c F E c EF ) Continuidad de la Probabilidad = P(EF c ) + P(F E c ) + 2P(EF ) P(EF ) = P(EF c EF ) + P(EF ) P(EF ) + P(F E c ) = P(EF c EF ) + P(F E c F E) P(EF ) }{{}}{{} E F = P(E) + P(F ) P(EF ) Sea (Ω, P) un espacio de probabilidad. (a) Si A 1 A 2... A n... una secuencia creciente de eventos, entonces P( A i ) = lím n P(A n) (b) Si A 1 A 2... secuencia creciente de eventos, entonces Demostración: (a) Sea P( A i ) = lím n P(A n) B i = A i \A i 1 i 2 N B 1 = A 1 Se prueba que (propuesto) los B i son disjuntos, B i = A i (de hecho, n n B i = n A i )
9 Sección 1.3. Proposiciones sobre probabilidades 5 Con esto: P( A i ) = P( = }{{} axioma 3 B i ) P(B i ) = lím n n P(B i ) Pero n B i = n A i = A n P( = }{{} axioma 3 lím P( n B i ) n A i ) = lím n P(A n) (b) Reduzcamos a la parte (a): notemos que (A n i ) i N es una secuencia creciente, = P( A i ) = 1 P([ A i ] c ) = 1 P([ A c i]) = 1 lím n P(Ac n) = 1 lím (1 P(A n)) n = lím P(A n) n Observación: Si (A i ) i N es creciente, el evento A i se llama el límite de los A i, lo mismo si es decreciente. A i se denomina también el límite de los A i. Con esta notación, el teorema se escribe: P( lím n A n) = lím n P(A n)
10 Capítulo 2 Combinatoria 2.1. Espacio Equiprobable Definición: Un espacio de probabilidad (Ω, P) se dice equiprobable si: Ω es finito y ω, ω Ω, P(ω) = P(ω ). Luego, dado ω 0 Ω fijo, Que se cumple ω 0 Ω. Mas aún, si E Ω, Ejemplo 1 = P(Ω) = P( ω Ω {ω}) = ω Ω P({ω}) = P({ω 0 }) = P({ω 0 }) Ω P({ω 0 }) = 1 Ω P(E) = P( ω E {ω}) = ω E P({ω}) = 1 Ω = E P(E) = E Ω ω E 1 Ω Se lanzan 2 dados equilibrados, Cual es la probabilidad de que sumen 7? Solución: {2, 3,..., 12} no sirve como Ω, pues no son equiprobables. 1 6
11 Sección 2.2. Principios de conteo 7 donde i es el primer lanzamiento, y j el segundo. Nos interesa Ω = {(i, j) i, j {1,..., 6}} = {1,..., 6} 2 E = {(i, j) Ω i + j = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)} 2.2. Principios de conteo Principio aditivo P(E) = E Ω = 6 36 = 1 6 El experimento de extraer el elemento de A o bien de B (A, B disjuntos), con A = n y B = m posee n + m posibles resultados Principio multiplicativo El experimento de extraer un primer elemento de A y luego un segundo elemento de B (A, B no necesariamente disjuntos) posee n m posibles resultados. Pregunta (muestreo con orden y reposición) Si se dispone de un conjunto A tal que A = n. Se extrae un elemento, se anota primero en una lista, y se devuelve al conjunto; luego se extrae un segundo y se repite el proceso k veces. De cuantas formas puede resultar lo anterior? Respuesta: n k Permutaciones Si en la pregunta anterior los elementos extraidos NO SON REPUESTOS, Cuantos resultados posibles hay ahora? Respuesta: n! (n k)! Ejemplo Cuantos desordenes (o permutaciones) hay de letras a, b, c? Respuesta: 3!, son {(a, b, c), (a, c, b), (b, a, c), (b, c, a), (c, a, b), (c, b, a)} Paradoja del cumpleaños De un grupo de k personas, Cual es la probabilidad de que al menos 2 de ellas estén de cumpleaños el mismo dia? Solución: Supongamos que las personas esán ordenadas, y no hay años bisiestos. Trabajaremos con Ω = {1,..., 365} k = {(ω 1,..., ω k ) i {1,..., k}ω i {1,..., 365}} que representa todas las posibles formas en que las k personas eligen un cumpleaños.
12 Sección 2.4. Subconjuntos 8 Dotamos a Ω de P equiprobable. Consideremos el evento E = {ω = (ω 1,..., ω k ) Ω i j, ω i = ω j } Luego E c = {ω = (ω 1,..., ω k ) Ω i j, ω i ω j } P(E) = 1 P(E c ) = 1 Ec Ω Sabemos que, Ω = 365 k, luego notemos que E c es el conjunto de tuplas con todos sus elementos distintos, lo que corresponde al caso de extraer con orden y sin reposición. Con esto: Por ejemplo: k = 41 P(E) 90 % k = 57 P(E) 99 % E c = 365! (365 k)! 365! (365 k)! P(E) = k = (365 (k 1)) k = k 1 1 i=0 365 i Subconjuntos Problema Se extraen k elementos sin devolverlos al conjunto, y sin distinguir el orden de aparición. De cuantas formas se puede hacer esto? Equivalentemente, Cuantos subconjuntos de k elementos pueden extraerse de un conjunto de n elementos? n Para responder esto, contaremos las (n k)! formas de extraer con orden y sin reposición de manera conveniente. luego, (# formas con orden y sin reposición) = (# formas sin orden y sin reposición) (# formas de permutar k elementos) n! = (# formas sin orden y sin reposición) k! (n k)! (# formas sin orden y sin reposición) = n! k!(n k)! = ( ) n k
13 Sección 2.5. Coeficiente multinomial 9 Ejemplo De un grupo de 5 personas debe escogerse un comité de 2 personas. Cuantos posibles comites hay? Respuesta: ( ) 5 = 5! 2 2! 3! = = 10 Explícitamente, en {a, b, c, d, e} los comites son: {(a, b), (a, c), (a, d), (a, e), (b, c), (b, d), (b, e), (c, d), (c, e), (d, e)} Coeficiente multinomial Problema: se desea separar n elementos en k grupos distinguibles de tamaños n 1, n 2,..., n k (con k n i = n). De cuantas formas puede hacerse esto? Solución: ( )( )( ) ( ) n n n1 n n1 n 2 n n1... n k 1... n 1 n 2 n 3 En que ( ) ( n n 1 corresponde a las formas de escoger el grupo 1, n n1 ) n 2 las formas de escoger el grupo 2 (una vez escogido el grupo 1),..., hasta ( n n 1... n k 1 ) n k, que son las formas de escoger el grupo k, ya escogido los anteriores. Pero, ( )( ) ( ) n n n1 n n1... n k 1... = n 1 (el último término es igual a 0! = 1) n 2 n! (n n 1 )! n 1! (n n 1 )! n 2!(n n 1 n 2 )!... (n n 1... n k 1)! n k! (n n 1... n k )! n k n! = n 1!n 2!... n k! ( ) n = n 1, n 2,..., n k Ejemplo: Un grupo de 10 excursionistas deben separarse en 2 equipos de tamaños 4 y 6, y cada equipo debe poseer un jefe. De cuantas formas puede hacerse esto? Respuesta: ( ) 10 = , 3, 1, 5 En que 10 es el tamaño, 1 el jefe de grupo de tamaño 4, 3 el resto, 1 el jefe del grupo de tamaño 6, y 5 el resto Bolitas en Urnas Problema A: Se dispone de un conjunto de tamaño n, del cual se extrae un elemento, se anota, y se devuelve al conjunto; luego se extrae nuevamente, se anota, y se devuelve al conjunto, y así sucesivamente hasta completar k extracciones. n k
14 Sección 2.6. Resumen 10 Si no se distingue el orden de aparición de los elementos, De cuantas formas se puede hacer esto? (Muestreo sin orden y con reposición) Equivalentemente (Problema B), tenemos k bolitas indistinguibles en n urnas indistinguibles. Es claro que arrojar una bolita en la urna i ésima, equivale en el problema original a extraer el elemento etiquetado i. Por lo tanto, #formas de realizar A = #formas de realizar B Equivalentemente (Problema C), consideremos n 1 objetos adicionales a las k bolitas (indistinguibles entre sí) correspondientes a las separaciones entre urnas, y ubiquémoslos en fila con las k bolitas:... 3 bolitas en urna 1, 2 bolitas en urna 2, 0 bolitas en urna bolitas en urna n. Del dibujo es claro que hay una asociación 1 a 1 entre formas de realizar B y las formas de realizar C. #formas A = #formas B = #formas C ( ) n 1 + k = n 1 En que n 1 + k son las posiciones en la fila, y n 1 las posiciones en que van las separaciones Ejemplo En una zona marina existen 3 especies de peces: a, b, c. Se extrae una muestra de 3 peces. Cuántas posibles muestras resultantes hay? Respuesta: ( ) = 3 1 ( ) 5 = 10 2 = 5! 2!3! = Explicitamente, las posibles muestras son: {(a,a,a),(a,a,b),(a,a,c),(a,b,b),(a,c,c),(a,b,c),(b,b,b),(b,b,c),(b,c,c),(c,c,c)} Resumen Si se extraen k elementos de un total de n, los posibles resultados son: Con orden Sin orden Con reposicion n k ( n 1+k ) n 1 ( n! Sin reposicion n (n k)! k) Observación: típicamente, los muestreos A,C y D son igualmente probables, pero B no lo es (salvo que se explícite lo contrario).
15 Capítulo 3 Probabilidades Condicionales 3.1. Introducción A veces se desea calcular la probabilidad de un evento cuando se dispone de infornación parcial del resultado del experimento aleatorio Ejemplo Se lanzan 2 dados equilibrados, (a) Cual es la probabilidad que aparezca al menos un 6? (b) Se sabe que la suma de los dados es 9 o mas. Cual es ahora la probabilidad de que salga al menos un 6? Solución: Sean los eventos: E = sale al menos un 6. F = la suma es 9 o mas. (a) P(E) = 1 P(E c ) = = (b) Los reultados fuera de F están descartados. Los resultados en F siguen siendo igualmente probables. = Nueva probabilidad E = #casos favorables en F #casos totales en F = EF F = {(6, 3), (6, 4), (6, 5), (3, 6), (4, 6), (5, 6), (6, 6)} 10 11
16 Sección 3.2. Definición 12 O equivalentemente: = EF F = EF Ω F Ω = P(EF ) P(F ) 3.2. Definición Dados E, F eventos, con P(F ) > 0, definimos la PROBABILIDAD CONDICIONAL de E dado F como: P(E F ) = P(EF ) P(F ) Ejemplo Un matrimonio tiene 2 hijos, y se sabe que al menos uno de ellos es varón. Cual es la probabilidad de que el otro hijo también sea varón? Solución: Sean los eventos: E= El otro hijo es varón. F = Al menos un hijo es varón. P(E F ) = P(EF ) P(F ) Claramente: = P(E) P(F ) P(E) = = 1 4 P(F ) = 1 P(F c ) = = 3 4 P(E F ) = = 1 3 MM VM MV VV En muchos ejemplos, para calcular P(E F ) sería mas cómodo trabajar con P(F E). Para esto, tenemos:
17 Sección 3.3. Propiedad (regla de Bayes) Propiedad (regla de Bayes) Demostración: P(F E) = P(F E) = Y al agrupar convenientemente los términos, tenemos P(E F )P(F ) P(E) P(F E) P(E) P(F ) P(F ) P(E F ) = P(F E) P(F ) Ejemplo En un torneo de fútbol se utiliza un test par detectar consumo de drogas en los jugadores. Cuando se aplica el test a un jugador que consume drogas, hay un 90 % de probabilidad que el test dé positivo; además, cuando el test se aplica a un jugador que no consume, hay un 5 % de probabilidad de que el test dé positivo. Se estima que un 2.5 % de los jugadores consume drogas. Se escoge un jugador al azar, y al realizar el test da positivo. Cual es la probabilidad de que el jugador sea consumidor de drogas? Solución: Sean los eventos: E = El jugador escogido consume drogas. F = El test da positivo. Por regla de Bayes: P(E F ) = = P(F E)P(E) P(F ) 90 % 2,5 % P(F ) Para calcular P(F ), hacemos lo siguiente: P(F ) = P(F E) P(E) P(E) + P(F Ec ) P(Ec ) P(E c ) = P(F E) P(E) + P(F E c ) P(E c ) ( ) = 90 % 2,5 % + 5 % 97,5 % = 7,125 % P(E F ) = 90 % 2,5 % 7,125 % 31,6 % El desarrollo (*) es una propiedad general.
18 Sección 3.4. Propiedad (regla de probabilidades totales) Propiedad (regla de probabilidades totales) Sean E un evento, y F 1, F 2,..., F n eventos que conforman una PARTICIÓN de Ω (es decir, los F i son disjuntos y n F i = Ω). Entonces Demostración: P(E) = n P(E F i )P(F i ) P(E) = P( n = = n EF i ) P(EF i ) P(F i) P(F i ) n P(E F i ) P(F i ) Observación: La propiedad anterior también vale para una partición numerable Independencia de eventos Introducción En general, P(E F ) no tiene por qué ser igual a P(E). Cuando hay igualdad, interpretamos que F no afecta a E, o bien E es independiente de F. Esto ocurre cuando P(E) = P(E F ) = P(EF ) P(F ) lo cual motiva: Definición Decimos entonces que E y F son INDEPENDIENTES, anotado E F, si P(EF ) = P(E)P(F ) Observación: la independencia es una noción simétrica en E y F, es decir E F es lo mismo que F E Propiedad E F E F c Demostración: PDQ: P(EF c ) = P(E)P(F c ) Tenemos: P(E) = P(EF ) + P(EF c ) en que P(EF ) = P(E)P(F ) pues E F. P(EF c ) = P(E) P(E)P(F )
19 Sección 3.5. Independencia de eventos 15 = P(E)(1 P(F )) dado que 1 P(F ) = P(F c ). Podemos definir independencia para una colección arbitraria de eventos Definición Sea (E i ) i I una coleción de eventos (acá I es un conjunto de indices). Decimos que (E i ) i I es una colección INDEPENDIENTE si n N, i1,i 2,...,i n I índices distintos, se tiene P( n E ik ) = k=1 n P(E ik ) Observación: E F, F G, G E, no implican que la colección {E, F, G} sea independiente Propiedad Sea F evento tal que P(F ) > 0. Entonces la aplicación P( F ), es decir: es una probabilidad (i.e., cumple los axiomas). Demostración: Propuesta. k=1 P : P R E P(E) = P(E F )
20 Capítulo 4 Variables aleatorias 4.1. Introducción En muchas situaciones, el espacio muestral que modela un cierto experimento aleatorio es demasiado complejo para trabajar directamente con él, mientras que lo que interesa estudiar es relativamente simple. Ejemplo Se lanzan 100 monedas, Ω = {cara, sello} 100 Ω = , Pero si nos interesa simplemente estudiar la cantidad de caras que se obtuvieron, los posibles resultados resultados son sólo 101 (desde 0 a 100 caras), lo cual es mucho más razonable. Por este motivo, comúnmente centraremos nuestro análisis directamente en la variable de interés sin especificar el espacio muestral Ω Definición: Variable Aleatoria Una VARIABLE ALEATORIA X es una función X : Ω R donde (Ω, P) es un cierto espacio de probabilidad (que usualmente estará implicito). Típicamente, no nos interesará estudiar Ω ni la forma particular que tiene la función X. Lo que sí nos interesará estudiar son las probabilidades asociadas a la variable, es decir, queremos darle sentido a expresiones del tipo ( )P(X a), ( )P(X [a, b]) ( )P(X < b) etcetera. Para esto, consideremos la siguiente notación: dado A R, anotamos X A = {ω Ω/X(ω) A Ω} = X 1 (A) 16
21 Sección 4.3. Definición: Distribución de X 17 es decir, X A es un evento, por lo cual tiene sentido calcular su probabilidad: P(X A) = P({ω Ω/X(ω) A} lo cual da sentido a las expresiones (*) Definición: Distribución de X Dada X variable aleatoria, definimos su LEY o DISTRIBUCIÓN como la función µ X : P(R) R A µ X (A) = P(X A) Anotamos también: Ley(X) = µ X Proposición µ X es una probabilidad sobre R (i.e. (R, µ X ) es un espacio de probabilidad). Demostración: Propuesta (buen ejercicio). La ley de una variable aleatoria es lo que estudiaremos Ejemplo Se lanza una moneda equilibrada 3 veces. Sea X la variable aleatoria que corresponde a la cantidad de caras obtenidas. (a) Dar un espacio de probabilidad (Ω, P) adecuado y escribir explícitamente X como función de Ω en R. (b) Calcular µ X (A) para todo A R. Solución (a) Tomamos Ω = {0, 1} 3 = {ω 1 ω 2 ω 3 ω i {0, 1} i} con P equiprobable. Escribamos X como función de Ω en R: X(ω) = X(ω 1 ω 2 ω 3 ) = ω 1 + ω 2 + ω 3 (b) µ X ({0} = P(X {0}) = P(X = 0) = P({ω 1 ω 2 ω 3 Ω/X(ω 1 ω 2 ω 3 ) = 0} = P({000}) = 1 8
22 Sección 4.3. Definición: Distribución de X 18 pues P es equiprobable. µ X ({1}) = P(X {1} = P(X = 1) = P({ω 1 ω 2 ω 3 /X(ω 1 ω 2 ω 3 ) = 1}) = P({001, 010, 100}) = 3 8 pues P es equiprobable. Análogamente: µ X ({2}) = 3 8 µ X ({3}) = 1 8 Con esto µ X (A) = P(X A) = P(X = x) x A {0,1,2,3}
23 Sección 4.4. Variables discretas Variables discretas Una variable aleatoria discreta será tal que ella toma una cantidad finita o a lo más numerable de valores Definición: Rango de X Una variable aleatoria X se dice DISCRETA si existe un conjunto R R finito o numerable tal que R se denomina RANGO de X, anotado R X. Ejemplo P(X R) = 1 ( ) y P(X = x) > 0 x R La variable aleatoria del ejemplo anterior es discreta, con R X = {0, 1, 2, 3} Definición: función de distribución discreta Dada X variable aleatoria discreta, definimos su FUNCIÓN DE DISTRIBUCIÓN DISCRETA como p X : R [0, 1] x p X (x) = P(X = x) Notar que p X (x) = 0 x R c X, y p X(x) > 0 x R X Proposición Sea X variable aleatoria discreta. Entonces, A R, P(X A) = p X (x) (**) x A R X Demostración: Gracias a (*) P(X A) = P(X (A R X ) (A R c X)) = P(X A R }{{ X ) + P(X A R } c }{{ X) } finito o numerable P(X RX c )=0 = P( {X = x}) x A R X = P(X = x) }{{} x A R X p X (x)
24 Sección 4.5. Ejemplos importantes de variables aleatorias discretas 20 Ejemplo En el ejemplo anterior, Con esto, para A = {0, 2} R X = {0, 1, 2, 3} 1 8 si x = 0 o 3 3 p X (x) = 8 si x = 1 o 2 0 en otro caso P(X A) = p X (0) + p X (2) = = Propiedad Demostración: 1 = P(X R) y luego usar (**). x R X p X (x) = Ejemplos importantes de variables aleatorias discretas Variable Bernoulli Consideremos un experimento aleatorio con sólo 2 posibles resultados: éxito con probabilidad p, y fracaso con probabilidad 1 p, donde p [0, 1] es un número fijo (por ejemplo, lanzar una moneda con cara = éxito y sello = fracaso). Sea X la variable aleatoria: { 1 si se obtuvo un éxito X = 0 si se obtuvo un fracaso La variable aleatoria X se denomina BERNOULLI de parámetro p, anotado X 1 Bernoulli(p). Claramente, R X = {0, 1} y además (p (0, 1) p X (0) = 1 p p X (1) = p
25 Sección 4.5. Ejemplos importantes de variables aleatorias discretas Variable Binomial Se repite el experimento anterior n veces. Sea X la variable aleatoria de la cantidad de éxitos que se obtienen. X se denomina variable aleatoria BINOMIAL de parámetros n y p, anotado X bin(n, p). Es decir: R X = {0, 1,..., n} p X (k) = P(X = k) = ( ) n p k (1 p) n k k En que el coeficiente binomial representa escoger k posiciones donde irán los éxitos, p representa que ocurren éxitos en las posiciones escogidas, y (1 p) que el resto resultan en fracaso. (k R X ) Variable Geométrica Se repite el experimento original (de éxito con probabilidad p y fracaso con probabilidad (1 p)) de manera independiente de manera sucesiva, hasta que se pbtiene el primer éxito. Sea X la variable aleatoria que denota la cantidad de veces que se realizó el experimento. X se denomina variable aleatoria GEOMÉTRICA de parámetro p, anotado X geom(p). Es decir: R X = {1, 2,...} p X (k) = P(X = k) = (1 p) k 1 p En que (1 p) representa los fracasos en las primeras k 1 repeticiones, y p representa el éxito en la repetición k-ésima Variable Binomial Negativa Similar a la variable geométrica, pero esta vez X representa la cantidad de repeticiones hasta obtener el r-ésimo éxito. X se denomina BINOMIAL NEGATIVA de parámetros r y p, anotado X BN(r, p). Es decir: R X = {r, r + 1,...} p X = P(X = k) ( ) k 1 = p k 1 (1 p) k 1 (r 1) p (*) r 1 ( ) k 1 = (1 p) k r p r r 1 (*) En que el coeficiente binomial representa escoger los r 1 éxitos en las primeras k 1 posiciones, p representa los éxitos en las r 1 posiciones escogidas, (1 p) siendo el fracaso en el resto, y p el éxito en la repetición k-ésima. 1 se distribuye como o tiene ley
26 Sección 4.6. Variables Continuas 22 Ejercicio Verificar en los casos recién vistos. x R X p X (x) = Variable de Poisson Una variable aleatoria X se dice Poisson de parámetro λ > 0 si R X = {0, 1,...} y k R X : p X = P(X = k) = e λ λk k! Y lo anotamos X P oisson(λ). Típicamente, esta variable aleatoria se utiliza para modelar la cantidad de sucesos que ocurren en un cierto lapso de tiempo. Por ejemplo: 1. Cantidad de clientes que llegan a la fila de un banco en 1 hora. 2. Cantidad de llamadas telefónicas recibidas en una oficina en 1 dia. 3. Cantidad de visitas a una página web en 1 minuto. 4. etc. El parámetro λ representa la TASA a la que ocurren estos eventos, en unidades de CANT IDAD T IEMP O 4.6. Variables Continuas Una variable aleatoria X se dice ABSOLUTAMENTE CONTINUA o simplemente CONTINUA si existe una función f X : R [0, ) tal que A R, P(X A) = f X (x)dx f X se denomina DENSIDAD de X A
27 Sección 4.6. Variables Continuas 23 Observación: Necesariamente f X (x)dx = 1 Observación: Informalmente, Si dx es un número pequeño P(X [x, x + dx]) = f X (x) = x+dx x f X (y)dy dxf X (x) P(X [x, x + dx] } dx {{} densidad de prob en x Y esto justifica el nombre densidad para f X. Observación: la noción de continuidad de una variable aleatoria no tiene nada que ver con la continuidad usual de funciones! Notemos que x R P(X = x) = P(X {x}) = f X (y)dy = 0 Cómo obtener f X a partir de cantidades de la forma P(X A)? Para responder esta pregunta, introducimos: Función de distribución acumulada Dada X variable aleatoria (no necesariamente continua) definimos su FUNCIÓN DE DISTRIBUCIÓN ACUMULADA como Proposición F X : R [0, 1] Si X es variable aleatoria continua, entonces {x} x F X (x) = P(X x) F X (x) = x (la demostración es directa de la definición de F X ) Mas aún, x punto de continuidad de f X, se tiene f X (y)dy f X (x) = df X(x) dx = d P(X x) dx Esto se obtiene aplicado Teorema Fundamental del Cálculo.
28 Sección 4.6. Variables Continuas 24 Figura 4.1: parte (b) Ejemplo Sea X variable aleatoria con densidad { x f X (x) = 2 si x [0, 2] 0 si (a)calcular F X (b)graficar f X y F X (c)calcular P(x 1) Solución: (a) F X (x) = x f X(y)dy luego: (c) x > 2 F X (x) = x < 0 F X (x) = x [0, 2] F X (x) = 0 x x 0dy + 2 y 0dy + 2 dy + F X (x) = 0 0dy = 0 x 2 x 0 0 si x < 0 x 2 4 si x [0, 2] 1 si x > 2 y x2 dy = 2 4 0dy = = 1
29 Sección 4.7. Variables Continuas Importantes 25 * pues P(X = 1) = 0 y X es variable continua Proposición P(X 1) = 1 P(X < 1) }{{} = P(X 1) = 1 F X (1) = = 3 4 Sea X variable aleatoria (no necesariamente continua) Entonces: (a) F X es creciente (no necesariamente estricta) (b) lím x F X (x) = 1 (c) lím x F X (x) = 0 (d) x R lím y x + F X(y) = F X (x) (es decir F X es continua a la derecha) (e) x R lím F X(y) = F X (x) P(X = x) y x = P(X < x) Luego, si X es variable aleatoria continua F X es función continua. Demostración: (a) Sean x y F X (x) = P(X x) }{{} P(X y) P( ) }{{} creciente P(X y) = F X (y) (b), (c), (d) y (e): aplicar continuidad de la probabilidad Variables Continuas Importantes Variable Uniforme X se dirá variable aleatoria UNIFORME en el intervalo [a, b] (con a < b) anotado X unif(a, b), si su densidad es Claramente, { 1 si x [a, b] 1 [a,b] (x) = 0 si 0 si x < a x a F X (x) = b a si x [a, b] 1 si x > b
30 Sección 4.7. Variables Continuas Importantes 26 Figura 4.2: Variable Uniforme Variable Exponencial X se dirá variable aleatoria EXPONENCIAL de parámetro λ > 0 si su densidad es Claramente: F X (x) = f X (x) = λe λx 1 [0, (x) { 0 si x > 0 1 e λx si x 0 Notemos que X es una variable aleatoria 0. Típicamente, se utiliza para representar tiempos aleatorios. La propiedad fundamental de la variable aleatoria exponencial es la PÉRDIDA DE MEMORIA: t, s 0, P(X t + s X t) = P(X s) (propuesto) Esto significa que, condicional en que X t, la variable aleatoria X se comporta (de t en adelante) como una nueva variable aleatoria exponencial (i.e., X olvida que ya transcurrió un tiempo t) Variable Normal x R X se dirá variable aleatoria NORMAL de parámetros µ R y σ 2 > 0, anotado X N (µ, σ 2 ), si f X (x) = 1 e (x µ)2 2σ 2 2πσ Lamentablemente, no se puede calcular explícitamente z F X (x) = 1 x 2πσ 0 e (x µ) 2 2σ 2 e (x µ)2 2σ 2 dy Cuando µ = 0, σ 2 = 1, decimos que X es una NORMAL ESTÁNDAR. dx. Escribimos simplemente
31 Sección 4.7. Variables Continuas Importantes 27 Figura 4.3: Variable Exponencial Figura 4.4: Variable Normal
32 Sección 4.8. Independencia de variables aleatorias Independencia de variables aleatorias Definición: Decimos que dos variables aleatorias X e Y son INDEPENDIENTES, anotado X Y si A, B R P(X A, Y B) = P(X A) P(Y B) Ejemplo Sean X Y, con X exp(λ), Y exp(µ). Sea Z min(x, Y ). Calcular la distribución de Z. Solución: z 0 Si z > 0, P(Z z) = 0 Luego: Z exp(λ + µ). Ejercicio: X Y, X P oisson(λ) Y P oisson(µ) Z = X + Y P oisson(λ + µ) Proposición P(Z > z) = P(min(X, Y )) > z F Z (z) = = P(X > z, Y > z) }{{} = P(X > z) P(Y > z) X Y = e λz e µz { 0 si z > 0 1 e (λ+µ)z si z 0 Sean X, Y variables aleatorias independientes y sean g, h : R R funcionens arbitrarias. Entonces g(x) es independiente de h(y ). Demostración: dados A, B R. P(g(X) A, h(y ) B) = P(X g 1 (A), Y h 1 (B)) X Y {}}{ = P(X g 1 (A))P(Y h 1 (B)) = P(g(X) A)P(h(Y ) B)
33 Capítulo 5 Esperanza 5.1. Definición Sea X una variable aleatoria, se define su ESPERANZA E(X) R como la cantidad: { E(X) = x R xp X(x) xf X(x)dx si X es discreta si X es continua En palabras, E(X) es el promedio de todos los valores que toma la variable, ponderados por su probabilidad de ocurrencia. Es el centro de masa de la distribución de la variable; es una medida del valo0r central que toma la variable. E(X) también se llama valor esperado o media. E NO ES el promedio Ejemplos Ejemplo 1: X Bernoulli(p), E(X) =? Veamos: E(X) = Ejemplo 2: X Bin(n, p) E(X) = n p x R X xp X (X) + 0 (1 p) + 1 p = p E(X) = ( ) n x (1 p) n x p x x x R X = (1 p) ( ) ( n p n x 1 p = (1 p) n = np x R X x np (1 p) n ) x 29
34 Sección 5.1. Definición 30 Ejemplo 3: X geom(p) E(X) = k=1 = p d dr [ = p k P(X = k) }{{} (1 p) k 1 p r k = p d dr k=1 1 (1 r) 2 ] = p = p 1 p 2 } kr{{ k 1 } k=1 d(r k ) dr [ 1 1 r 1 ], r = 1 p = 1 p X BN(r, p) E(X) = r p X P oisson(λ) E(X) = λ X Unif(a, b) E(X) = a+b 2 X exp(λ) E(X) = 1 λ X N (µ, σ 2 ) E(X) = µ es simétrica respecto a µ Proposición Sea X variable aleatoria y g : R R una función, entonces { E(g(X)) = x R g(x)p X(x) si X es discreta g(x)f X(x)dx si X es continua Observación: La utilidad de esta proposición es que permite calcular E(g(X)) sin la necesidad de obtener la distribución de g(x). Demostración: caso discreto. Sea Y = g(x). E(Y ) = yp( }{{} Y = y) = y P(Y = y, X = x) y R Y g(x) y R Y x R X = yp(g(x) = y, X = x) }{{} x R X y R Y =φ = g(x)p(x = x) x R X Corolario: α R, Xvariable aleatoria La demostración es trivial usando g(x) = αx Proposición: Linealidad de E E(αX) = αe(x) El corolario anterior, mas la proposición E(X + Y ) = E(X) + E(Y ) nos dan que opera linealmente. Demostración: Haremos la demostración en el caso en que X e Y son variables aleatorias discretas. Sea Z = X + Y
35 Sección 5.1. Definición 31 E(Z) = zp (Z = z) }{{} z R Z {Z=z} = {Z = z} {X = x, Y = y} x R X,y R Y = z,x,y = {Z = z, X = x, Y = y} z P( }{{} Z z R z x R X y R Y =X+Y =x+y = z, X = x, Y = y) = zp(z = x + y, X = x, Y = y) }{{} x R X y R Y z R Z =0 cuando z x+y = (x + y)p(x = x, Y = y) x R X y R Y = x P(X = x, Y = y) + y x R X y R Y y R Y }{{} P(X=x) = E(X) + E(Y ) x R X P(X = x, Y = y) }{{} P(Y =y) Observación: notar que el resultado es cierto sin importar si las variables son independientes o no Ejemplo n personas van a una fiesta, y dejaron su chaqueta en el sillón. Por el ajetreo de la fiesta las chaquetas se revuelven aleatoriamente. Al salir, cada persona se lleva una chaqueta cualquiera. Calcule la cantidad esperada de personas que se llevan su propia chaqueta. Solución: X = cantidad de personas que se llevan su propia chaqueta. Supongamos que las personas están enumeradas de 1 a n. Consideremos las variables aleatorias X 1,, X n dadas por { 1 si la persona lleva su propia chaqueta X i = 0 (es decir, X i = 1 Ei donde E i es el evento en que se lleva su propia chaqueta) Claramente X = X X n Luego, E(X) = E(X 1 ) + + E(X n ) Sin embargo, X i Bernoulli(p), donde p = P(X i = 1) = P(persona se lleva su chaqueta) = (n 1)! n! = 1 n E(X i) = p = 1 n E(X) = 1 n n = 1
36 Sección 5.1. Definición Proposición: Esperanza de variables independientes Sea X Y entonces E(XY ) = E(X)E(Y ) Demostración: Repitiendo el procedimiento de la demostración previa, tenemos (para el caso discreto con Z = X Y ): E(Z) = xy P(X = x, Y = y) }{{} x R X y R Y P(X=x)P(Y =y) porque X Y = xp(x = x) yp(y = y) x R X y R Y = E(X)E(Y ) Proposición: Crecimiento de E( ) Sean X, Y variables aleatorias tales que P(X Y ) = 1 entonces E(X) E(Y ). Es decir, E( ) es una función CRECIENTE de variables aleatorias. Demostración: Propuesta.
37 Sección 5.2. Varianza y Covarianza Varianza y Covarianza La esperanza es un indicador de tendencia central de la variable aleatoria, pero no captura que tan repartida o dispersa está la variable aleatoria. Para medir dispersión, una forma es la siguiente: Definición: Varianza La VARIANZA de una variable aleatoria X es el número real: Observación: V ar(x) Ejemplos de varianza X Ber(p) V ar(x) = p(1 p) V ar(x) = E ( [X E(X)] 2) X Bin(n, p) V ar(x) = np(1 p) X geom(p) V ar(x) = 1 p p 2 X BN(n, p) V ar(x) = r(1 p) p 2 X P oisson(λ) V ar(x) = λ X Unif(a, b) V ar(x) = (b a)2 12 X N (µ, σ 2 ) V ar(x) = σ 2 = E(X 2 2XE(X) + E(X) 2 ) = E(X 2 ) + E( 2XE(X)) + E(E(X) 2 ) = E(X 2 ) 2E(X)E(X) + E(X) 2 = E(X 2 ) E(X) 2 Realizaremos el cálculo de la uniforme. El resto queda propuesto. Si X Unif(a, b), sabemos que E(X) = a+b 2. Además: E(g(x)) = E(X 2 ) = + + g(x)f X (x)dx x 2 f X (x)dx b 1 = x 2 dx b a a = 1 b 3 a 3 3 b a = 1 (b a)(b 2 + ab + a 2 ) 3 (b a) = 1 3 (b2 + ab + a 2 )
38 Sección 5.2. Varianza y Covarianza 34 luego: Propiedades de la Varianza Proposición Sean X variable aleatoria, y a, b constantes. V ar(x) = E(X 2 ) E(X) 2 = 1 ( ) a + b 3 (b2 + ab + a 2 ) 2 = 4b2 + 4ab + 4a 2 3a 2 6ab 3b 2 12 (b a)2 = 12 V ar(ax + b) = a 2 V ar(x) Proposición Sean X, Y variables aleatorias, entonces: donde, Definición: Observación: Cov(X, X) = V ar(x) Demostración: V ar(ax + b) = E([aX + b E(aX + b) ] 2 ) }{{} ae(ex)+b = E([aX + b ae(x) b] 2 ) = E([a(X E(X))] 2 ) = a 2 E([X E(X)] 2 ) = a 2 V ar(x) V ar(x + Y ) = V ar(x) + V ar(y ) + 2(Cov(X, Y ) Cov(X, Y ) = E([X E(X)][Y E(Y )]) = E(XY ) E(X)E(Y ) V ar(x + Y ) = E([X + Y E(X + Y )] ) }{{} E(X)+E(Y ) = E([{X E(X)} + {Y E(Y )}] 2 ) = E({X E(X)} 2 + {Y E(Y )} 2 + 2{X E(X)}{Y E(Y )}) = E({X E(X)} 2 ) + E({Y E(Y )} 2 ) + 2 E({X E(X)}{Y E(Y )}) }{{} Cov(X,Y )
39 Sección 5.3. Función Generadora de Momentos 35 Cov(X, Y ) > 0: Se interpreta que X e Y tienden a estar del mismo lado de su esperanza de manera que el producto [X E(X)][Y E(Y )] tiende a ser 0. Se dice que las variables están positivamente correlacionadas. Cov(X, Y ) > 0: Ocurre lo contrario. Cov(X, Y ) = 0: variables no correlacionadas, la cantidad (X E(X)) (Y E(Y )) es con frecuencia }{{}}{{} >0 <0 similar, de manera que E( ) da 0. Proposición X Y Cov(X, Y ) = 0 Demostración: Cov(X, Y ) = E(XY ) E(X)E(Y ) Observación: La recíproca no es cierta en general. }{{} = E(X)E(Y ) E(X)E(Y ) X Y = Función Generadora de Momentos Dado k N, la cantidad E(X k ), se llama momento de orden X. Para calcular los momentos de manera eficiente, se utiliza lo siguiente. + es la definición, pero puede ser difícil de calcular Definición x k f X (x)dx La función generadora de momentos de una variable aleatoria X se define como: M X : R [0, ) t M X (t) = E(e tx ) Proposición: d k M dt k X(0) = E(Xk ) Demostración: Si X es continua, tenemos
40 Sección 5.3. Función Generadora de Momentos 36 d dt M X(t) = d dt E(et X) = d dt = = d dt M X t=0 = = E Al derivar sucesivamente, se obtiene el resultado Ejemplo X N (µ, σ 2 ) Calculemos M X (t): ( ( d dt ) e tx f X (x)dx [ e tx f X (x) ] ) dx xe tx f X (x)dx xf X (x)dx Usando y = x µ σ M X (t) = E(e tx ) = 1 + 2πσ e tx e (x µ)2 2σ 2 dx 1 2π σ + e t(µ+σy e y2 2 σdy = e µt+ 1 2 σ2 t e (y σt)2 2 dy 2π }{{} = e µt+ 1 2 σ2 t 2 = M X (t) 1= densidad de N (σt,1) Ahora, calculemos E(X) y V ar(x) con la función generadora de momentos. Además luego d dt M X(t) = d dt (eµt+ 1 2 σ2 t 2 ) = (µ + σ 2 t)e µt+ 1 2 σ2 t 2 (*) E(X) = d dt M X(0) = µ d 2 M X dt 2 (t) = d dt (*) E(X 2 ) = µ 2 + σ 2 = (µ + σ 2 t)e µt+ 1 2 σ2 t 2 + σ 2 e µt+ 1 2 σ2 t 2
41 Sección 5.4. Distribución de una función de una variable aleatoria Proposición Si X Y M X+Y = M X M Y Demostración: Teorema V ar(x) = E(X 2 ) E(X 2 ) = µ 2 + σ 2 µ 2 = σ 2 M X+Y (t) = E(e t(x+y ) ) = E(e tx e ty ) }{{} = E(e tx ) E(e ty ) X Y = M X (t) M Y (t) Sean X, Y variables aleatorias tales que M X, M Y son finitos en torno a 0. Entonces X e Y tienen la misma distribución si y solo si M X (t) = M Y (t) t La demostración es fácil en, y en es difícil (y no las haremos) Proposición: estabilidad bajo la suma Si X Y son X N (µ, σ 2 ), Y N (v, τ 2 ) entonces, Demostración: X + Y N (µ + v, σ 2 + τ 2 ) M X+Y (t) = }{{} X Y M X (t) M Y (t) = e µt+ 1 2 σ2 t 2 e vt+ 1 2 τ 2 t 2 = e (µ+v)t+ 1 2 (σ2 +τ 2 )t 2 La última expresión es la f.g.m. de una variable aleatoria Z N (µ + v, σ 2 + τ 2 ). Por el teorema, X + Y tiene la misma distribución que Z, es decir X + Y N (µ + v, σ 2 + τ 2 ) 5.4. Distribución de una función de una variable aleatoria Problema: dada una variable aleatoria X con densidad f X, y dada una función g : R R,? Como calcular la densidad de la variable aleatoria Y = g(x)? Solución: seguir los siguientes pasos.
42 Sección 5.4. Distribución de una función de una variable aleatoria 38 Escribir: F Y (y) = P(Y y) = P(g(X) y) Despejar X, en el sentido de obtener un conjunto A y R tal que g(x) y X A y (de hecho, A y = g 1 ((, y])) Con esto: Calcular F Y (y) = P(X A y ) = f X (x)dx A y f Y (y) = d dy F Y (y) Ejemplo: X N (0, 1) Calcular la densidad de Y = X 2 Siguiendo los pasos: F Y (y) = P(Y y) = P(X 2 y) Notemos que y 0 Con esto: X 2 y y X y F Y (y) = P( y X y) = = }{{} integrandoespar y 2 y y 0 1 2π e x2 2 dx 1 2π e x2 2 dx Finalmente: TFC + regla de la cadena = f Y (y) = d dy F Y (y) [ = d dy 2 y 2π 2 e y 2 /2 1 2π 2 y = e y/2 2π y 0 e x2 2 dx ]
43 Sección 5.4. Distribución de una función de una variable aleatoria 39 Para y > 0, se tiene que P(X 2 y) = 0 f Y (y) = e y/2 2πy 1 [0, ) (y)
44 Capítulo 6 Vectores Aleatorios En muchas situaciones hay 2 o mas variables aleatorias que poseen alguna relación (son no independientes), por lo cual no basta con estudiarlos por separado; por lo que para comprender bien su comportamiento, hay que estudiarlos de manera CONJUNTA. Ejemplo Se escoge una perosna al azar en una población, y se consideran las variables aleatorias X: edad de la persona Y : peso de la persona Z: estatura de la persona Claramente, estas variables estan relacionadas. Por ejemplo, las probabilidades del evento Z 1,50m cambia si se condiciona en el evento X Definición: Vector Aleatorio Un VECTOR ALEATORIO es una X : Ω R n, donde (Ω, P) es un espacio de probabilidad. Observación: podemos escribir X 1 (ω) X(ω) =. X n (ω) donde cada X i es una variable aleatoria. Observación: por simplicidad de la presentación, trabajaremos con n = 2. Anotaremos X = (X, Y ) Definición: Función de Distribución Acumulada Conjunta Tenemos que la función de distribución acumulada conjunta del vector aleatorio (X, Y ) es: F X,Y : R 2 [0, 1] Como obtener F X y F Y a partir de F X,Y? (x, y) F X,Y (x, y) = P(X x, Y y) 40
45 Sección 6.1. Definición: Vector Aleatorio Proposición Demostración: Notemos que si y n, entonces es creciente y su unión es {X x}. Luego, lím X,Y (x, y) y = F X (x) lím X,Y (x, y) x = F Y (y) {X x, Y y n } n N lím F X,Y (x, y) = lím F x,y(x, y n ) y n = lím n P(X x, Y y n) = P(X x) = F X (x) en que la penúltima igualdad se da por continuidad de la probabilidad Definición Un v.a(x, Y ) se dice discreto si X e Y son variables discretas. Anotamos: P X,Y (x, y) = P(X = x, Y = y) Definición Un v.a(x, Y ) se dice conjuntamente continua si existe una función f X,Y : R 2 [0, ), llamada densidad conjunta de (X, Y ), tal que A R 2 P((X, Y ) A) = A f X,Y (x, y)dxdy
Maestría en Bioinformática Probabilidad y Estadística: Clase 3
Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias
Más detallesTema 4: Variables aleatorias multidimensionales
Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia
Más detallesCapítulo 6: Variable Aleatoria Bidimensional
Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el
Más detallesDefinición de probabilidad
Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total
Más detallesProf. Eliana Guzmán U. Semestre A-2015
Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos
Más detallesTema 4: Variables aleatorias multidimensionales
1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica
Más detallesCálculo de Probabilidades II Preguntas Tema 1
Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga
Más detallesIntroducción al Tema 9
Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. Tema 5. Series temporales y números índice. Introducción al Tema 9 Descripción de variables
Más detallesCapítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta
Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta Matemática Discreta - CC3101 Profesor: Pablo Barceló P. Barceló Matemática
Más detallesTema 5 Algunas distribuciones importantes
Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos
Más detallesUnidad Temática 3: Probabilidad y Variables Aleatorias
Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento
Más detallesUnidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Más detallesVariables aleatorias. Función de distribución y características asociadas
Índice 3 Variables aleatorias. Función de distribución y características asociadas 3.1 3.1 Introducción.......................................... 3.1 3.2 Concepto de variable aleatoria................................
Más detallesTema 5 Variables aleatorias: distribuciones de probabilidad y características.
Tema 5 Variables aleatorias: distribuciones de probabilidad y características. 1. Introducción Según se ha reflejado hasta el momento, el espacio muestral asociado a un experimento aleatorio puede ser
Más detallesMODELO DE RESPUESTAS Objetivos del 1 al 9
PRUEBA INTEGRAL LAPSO 05-764 - /9 Universidad Nacional Abierta Probabilidad y Estadística I (Cód. 764) Vicerrectorado Académico Cód. Carrera: 6 Fecha: 0-04-06 MODELO DE RESPUESTAS Objetivos del al 9 OBJ
Más detallesAxiomática de la Teoría de Probabilidades
Axiomática de la Teoría de Probabilidades Modelos matemáticos Según el experimento Cada ejecución del experimento se denomina prueba o ensayo Determinísticos Aleatorios Conjunto de resultados posibles
Más detallesObjetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria
Tema 4: Variables aleatorias discretas Objetivos Dominar el uso de las funciones asociadas a una variable aleatoria discreta para calcular probabilidades. Conocer el signicado y saber calcular la esperanza
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad
Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 2.1. Variables aleatorias: funciones de distribución,
Más detallesDistribuciones de probabilidad bidimensionales o conjuntas
Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso
Más detallesModelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:
Modelos de probabilidad Modelos de probabilidad Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno será capaz
Más detallesBioestadística. Curso Capítulo 3
Bioestadística. Curso 2012-2013 Capítulo 3 Carmen M a Cadarso, M a del Carmen Carollo, Xosé Luis Otero, Beatriz Pateiro Índice 1. Introducción 2 2. Variable aleatoria 2 2.1. Variables aleatorias discretas...............................
Más detalles6. VARIABLES ALEATORIAS
6. VARIABLES ALEATORIAS Objetivo Introducir la idea de una variable aleatoria y su distribución y características como media, varianza etc. Bibliografía recomendada Peña y Romo (1997), Capítulo 15. Hasta
Más detallesVARIABLES ALEATORIAS DISCRETAS
VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:
Más detallesTema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Más detallesPROBABILIDAD Y ESTADÍSTICA
FACULTAD DE INGENIERÍA U N A M PROBABILIDAD Y ESTADÍSTICA Irene Patricia Valdez y Alfaro irenev@unam.mx T E M A S DEL CURSO 1. Análisis Estadístico de datos muestrales. 2. Fundamentos de la Teoría de la
Más detallesProbabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 3 Variables aleatorias Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.
Más detallesVariables aleatorias
Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,
Más detallesCurso de Probabilidad y Estadística
Curso de Probabilidad y Estadística Distribuciones de Probabilidad Dr. José Antonio Camarena Ibarrola camarena@umich.mx Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica
Más detallesConceptos. Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado.
Teresa Pérez P DíazD Profesora de matemática tica Conceptos Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado. Ejemplos: E : Lanzar un dado,
Más detallesAgro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
Más detallesVariables aleatorias
Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando
Más detallesJUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas
JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme
Más detallesTema 3: Variables aleatorias y vectores aleatorios bidimensionales
Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos
Más detallesPrueba Integral Lapso /6
Prueba Integral Lapso 2 009-2 76 - /6 Universidad Nacional Abierta Probabilidad y Estadística I (76) Vicerrectorado Académico Cód. Carrera: 06-20 - 508 Fecha: 2-2 - 2 009 MODELO DE RESPUESTAS Objetivos,
Más detallesModelado de la aleatoriedad: Distribuciones
Modelado de la aleatoriedad: Distribuciones Begoña Vitoriano Villanueva Bvitoriano@mat.ucm.es Facultad de CC. Matemáticas Universidad Complutense de Madrid I. Distribuciones Discretas Bernoulli (p) Aplicaciones:
Más detallesUnidad Temática 2 Probabilidad
Unidad Temática 2 Probabilidad Responda verdadero o falso. Coloque una letra V a la izquierda del número del ítem si acepta la afirmación enunciada, o una F si la rechaza. 1. El experimento que consiste
Más detallesDefinición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s).
VARIABLE ALEATORIA Definición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s). X : S S s s X () s X(s) Rx Rx es el recorrido
Más detallesVariables aleatorias unidimensionales
Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen
Más detallesDistribuciones de probabilidad más usuales
Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y
Más detallesSemana02[1/23] Conjuntos. 9 de marzo de Conjuntos
Semana02[1/23] 9 de marzo de 2007 Introducción Semana02[2/23] La teoría de conjuntos gira en torno a la función proposicional x A. Los valores que hacen verdadera la función proposicional x A son aquellos
Más detallesUNIDAD: GEOMETRÍA PROBABILIDADES I. Experimento: Procedimiento que se puede llevar a cabo bajo las mismas condiciones un número indefinido de veces.
C u r s o : Matemática º Medio Material Nº MT - UNIDAD: GEOMETRÍA PROBABILIDADES I NOCIONES ELEMENTALES Experimento: Procedimiento que se puede llevar a cabo bajo las mismas condiciones un número indefinido
Más detallesEn muchos estudios no estamos interesados en saber cual evento ocurrió, sino en
Capítulo 3 Variable Aleatoria 3.. Introducción En muchos estudios no estamos interesados en saber cual evento ocurrió, sino en el número de veces que ha ocurrido un evento. Por ejemplo, al lazar dos monedas,
Más detallesEspacios Vectoriales
Espacios Vectoriales Espacios Vectoriales Verónica Briceño V. noviembre 2013 Verónica Briceño V. () Espacios Vectoriales noviembre 2013 1 / 47 En esta Presentación... En esta Presentación veremos: Espacios
Más detalles2.3 PROPIEDADES DE LA PROBABILIDAD
2.3 PROPIEDADES DE LA PROBABILIDAD 1. La probabilidad es positiva y menor o igual que 1. 0 p( 1 2. La probabilidad del suceso seguro es 1. p (E) = 1 3. Si A y B son incompatibles, es decir A B = entonces:
Más detalles1.1. Distribución exponencial. Definición y propiedades
CONTENIDOS 1.1. Distribución exponencial. Definición y propiedades 1.2. Procesos de conteo 1.3. Procesos de Poisson - Tiempos de espera y entre llegadas - Partición y mezcla de un proceso de Poisson -
Más detallesPROBABILIDAD. Es el conjunto de todos los resultados posibles de un experimento aleatorio. Por ejemplo: Experimento: tirar un dado.
1 PROBABILIDAD EXPERIMENTOS Al fijar las condiciones iniciales para un experimento se da lugar a dos tipos de situaciones: a) Experimentos determinísticos: se conoce el resultado. Por ejemplo: si suelto
Más detallesProbabilidad, Variables aleatorias y Distribuciones
Prueba de evaluación continua Grupo D 7-XII-.- Se sabe que el 90% de los fumadores llegaron a padecer cáncer de pulmón, mientras que entre los no fumadores la proporción de los que sufrieron de cáncer
Más detalles520142: ALGEBRA y ALGEBRA LINEAL
520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición
Más detallesUnidad II: Fundamentos de la teoría de probabilidad
Unidad II: Fundamentos de la teoría de probabilidad 2.1 Teoría elemental de probabilidad El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos que se denominan aleatorios, cuya característica
Más detallesTeorema de Bayes. mientras que B tiene una tasa de defectos del 4%.
Teorema de Bayes Ejemplo: En una empresa manufacturera, una máquina A produce el 60% de la producción total, mientras que una máquina B el restante 40%. 71 El 2% de las unidades producidas por A son defectuosas,
Más detallesTécnicas Cuantitativas para el Management y los Negocios I
Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:
Más detallesTEMA 3: Probabilidad. Modelos. Probabilidad
TEM 3: Probabilidad. Modelos Probabilidad Fenómeno aleatorio: es aquel cuyos resultados son impredecibles. Ejemplos: Lanzamiento de una moneda: Resultados posibles: cara, cruz. Selección al azar de un
Más detallesGeneración de variables aleatorias continuas Método de la transformada inversa
Generación de variables aleatorias continuas Método de la transformada inversa Georgina Flesia FaMAF 16 de abril, 2013 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Más detallesHoja 2 Probabilidad. 1.- Sean Ω un espacio muestral y A P(Ω) una σ-álgebra. Para A A fijado, Además, resolver el ejercicio 3 desde (5.a) y (5.b).
Hoja 2 Probabilidad 1.- Sean Ω un espacio muestral y A P(Ω) una σ-álgebra. Para A A fijado, se define A A = {B Ω : B = A C con C A}. Demostrar que A A P(A) es σ-álgebra. 2.- Sea {A n : n 1} A una sucesión
Más detallesTeoría de la decisión
Teoría de la decisión Repaso de Estadística Unidad 1. Conceptos básicos. Teoría de. Espacio muestral. Funciones de distribución. Esperanza matemática. Probabilidad condicional 1 Teoría de la decisión Teoría
Más detallesDistribuciones de Probabilidad
Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica
Más detallesFormulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico
Formulario. Estadística Administrativa Módulo 1. Introducción al análisis estadístico Histogramas El número de intervalos de clase, k, se elige de tal forma que el valor 2 k sea menor (pero el valor más
Más detallesProbabilidad 3/1/2010. EVSC 5020: Bioestadística. Qué es probabilidad? Prof. Rafael R. Canales-Pastrana. EVSC 5020: Bioestadística
Probabilidad Prof. Rafael R. Canales-Pastrana 2 Qué es probabilidad? 3 1 Definiciones de Probabilidad La medida del grado de confianza que uno tiene, en que ocurra el acontecimiento. Método axiomático:
Más detallesGrupo 23 Semestre Segundo examen parcial
Probabilidad Grupo 23 Semestre 2015-2 Segundo examen parcial La tabla siguiente presenta 20 postulados, algunos de los cuales son verdaderos y otros son falsos. Analiza detenidamente cada postulado y elige
Más detallesUnidad IV: Distribuciones muestrales
Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia
Más detallesConceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas
Conceptos Fundamentales Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas Análisis de datos en física de partículas Experimento en física de partículas: Observación de n sucesos de un cierto tipo (colisiones
Más detallesAl conjunto de todos los sucesos que ocurren en un experimento aleatorio se le llama espacio de sucesos y se designa por S. Algunos tipos de sucesos:
1.- CÁLCULO DE PROBABILIDADES. Un experimento aleatorio es aquel que puede dar lugar a varios resultados, sin que pueda ser previsible enunciar con certeza cuál de éstos va a ser observado en la realización
Más detallesProbabilidad. Si lanzamos una moneda no sabemos de antemano si saldrá cara o cruz. Teoría de probabilidades
Experimentos deterministas Probabilidad Son los experimentos de los que podemos predecir el resultado antes de que se realicen. Si dejamos caer una piedra desde una ventana sabemos, sin lugar a dudas,
Más detallesCI2612: Algoritmos y Estructuras de Datos II. Espacio de probabilidad. Objetivos. Blai Bonet
CI2612: Algoritmos y Estructuras de Datos II Blai Bonet Análisis probabiĺıstico Universidad Simón Boĺıvar, Caracas, Venezuela Objetivos Espacio de probabilidad Las probabilidades se definen sobre un espacio
Más detalles1. La Distribución Normal
1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando
Más detallesExperimento aleatorio, Espacio muestral, Suceso
El siguiente material se encuentra en etapa de corrección y no deberá ser considerado una versión final. Alejandro D. Zylberberg Versión Actualizada al: 4 de mayo de 2004
Más detallesVariables aleatorias múltiples
Chapter 4 Variables aleatorias múltiples 4.. Distribución conjunta y marginal Definición 4.. Un vector aleatorio n-dimensional es una función que va de un espacio muestral S a un espacio euclediano n-dimensional
Más detallesVariable Aleatoria Continua. Principales Distribuciones
Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables
Más detallesVectores aleatorios. Estadística I curso 2008 2009
Vectores aleatorios Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 En numerosas ocasiones estudiamos más de una variable asociada a
Más detallesProbabilidad 2º curso de Bachillerato Ciencias Sociales
PROBABILIDAD Índice: 1. Experimentos aleatorios. Espacio muestral----------------------------------------------------- 2 2. Suceso aleatorio ------------------------------------------------------------------------------------
Más detallesTema 4. MODELOS DE DISTRIBUCIONES DISCRETOS.
Estadística Tema 4 Curso /7 Tema 4. MODELOS DE DISTRIBUCIONES DISCRETOS. Objetivos Conceptos: Conocer los siguientes modelos discretos de probabilidad: uniforme, binomial, geométrico y Poisson. De cada
Más detallesRepaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Más detallesPROBABILIDAD. Experiencia aleatoria es aquella cuyo resultado depende del azar.
PROBABILIDAD. 1 EXPERIENCIAS ALEATORIAS. SUCESOS. Experiencia aleatoria es aquella cuyo resultado depende del azar. Suceso aleatorio es un acontecimiento que ocurrirá o no dependiendo del azar. Espacio
Más detallesIntroducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.
Introducción al Tema 8 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos
Más detallesEspacios topológicos. 3.1 Espacio topológico
Capítulo 3 Espacios topológicos 3.1 Espacio topológico Definición 3.1.1. Un espacio topológico es un par (X, τ), donde X es un conjunto, y τ es una familia de subconjuntos de X que verifica las siguientes
Más detallesSistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad
Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Indice 1) Sucesos aleatorios. Espacio muestral. 2) Operaciones con sucesos. 3) Enfoques de la Probabilidad.
Más detalles2. Probabilidad y. variable aleatoria. Curso 2011-2012 Estadística. 2. 1 Probabilidad. Probabilidad y variable aleatoria
2. Probabilidad y variable aleatoria Curso 2011-2012 Estadística 2. 1 Probabilidad 2 Experimento Aleatorio EL término experimento aleatorio se utiliza en la teoría de la probabilidad para referirse a un
Más detallesMay 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN
May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p
Más detallesModelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Más detallesDefinición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...
Índice 4 MODELOS DE DISTRIBUCIONES 4.1 4.1 Introducción.......................................... 4.1 4.2 Modelos de distribuciones discretas............................. 4.1 4.2.1 Distribución Uniforme
Más detallesTEMA 2 EXPERIMENTOS ALEATORIOS Y CÁLCULO DE PROBABILIDADES
TEMA 2 EXPERIMENTOS ALEATORIOS Y CÁLCULO DE PROBABILIDADES EXPERIMENTOS: EJEMPLOS Deterministas Calentar agua a 100ºC vapor Soltar objeto cae Aleatorios Lanzar un dado puntos Resultado fútbol quiniela
Más detallesPROBABILIDAD. Profesor: Rafael Núñez Nogales CÁLCULO DE PROBABILIDADES. Experimentos y sucesos
PROBABILIDAD CÁLCULO DE PROBABILIDADES Experimentos y sucesos Experimento aleatorio Es aquel cuyo resultado depende del azar, es decir no se puede predecir de antemano qué resultado se va a obtener aunque
Más detallesFactorial de un número Se define como la multiplicación sucesiva de los primeros números naturales.
Combinatoria Principio multiplicativo Un elemento se puede elegir de formas diferentes, un elemento se puede elegir de formas diferentes hasta un elemento enésimo que puede ser elegido de formas diferentes.
Más detallesTerminaremos el capítulo con una breve referencia a la teoría de cardinales.
TEMA 5. CARDINALES 241 Tema 5. Cardinales Terminaremos el capítulo con una breve referencia a la teoría de cardinales. Definición A.5.1. Diremos que el conjunto X tiene el mismo cardinal que el conjunto
Más detallesLa reordenación aleatoria de un conjunto finito
La reordenación aleatoria de un conjunto finito Pérez Cadenas J. I. 0.06.2003 Resumen Al desordenar y, a continuación, reordenar aleatoriamente un conjunto finito es posible que algunos de sus elementos
Más detallesRESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO
RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre
Más detallesProbabilidad PROBABILIDAD
PROBABILIDAD La probabilidad es un método mediante el cual se obtiene la frecuencia de un suceso determinado mediante la realización de un experimento aleatorio, del que se conocen todos los resultados
Más detallesAnálisis de procesos estocásticos en el dominio del tiempo
Análisis de procesos estocásticos en el dominio del tiempo F. Javier Cara ETSII-UPM Curso 2012-2013 1 Contenido Introducción Procesos estocásticos Variables aleatorias Una variable aleatoria Dos variables
Más detallesProbabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro
Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro La probabilidad nos proporciona un modelo teórico para la generación de los datos experimentales Medidas de la Posibilidad
Más detallesTema 3. VARIABLES ALEATORIAS.
3..- Introducción. Tema 3. VARIABLES ALEATORIAS. Objetivo: Encontrar modelos matemáticos para el trabajo con probabilidad de sucesos. En particular, se quiere trabajar con funciones reales de variable
Más detallesProbabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid
Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X
Más detalles4. CONCEPTOS BASICOS DE PROBABILIDAD
4. CONCEPTOS BASICOS DE PROBABILIDAD 4.1 Introducción La probabilidad y la estadística son, sin duda, las ramas de las Matemáticas que están en mayor auge en este siglo, y tienen una tremenda aplicabilidad
Más detalles6.1. Esperanza Matemática de Variables Aleatorias Discretas.
Capítulo 6 Esperanza Matemática 6 Esperanza Matemática de Variables Aleatorias Discretas Recordemos que una variable aleatoria X es discreta, si existe una sucesión (x n ) n de números reales tales que
Más detallesTeoría de la Probabilidad Tema 2: Teorema de Extensión
Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada
Más detallesDistribuciones de probabilidad multivariadas
Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable
Más detalles5 DISTRIBUCIONES BINOMIAL Y DE POISSON
5 DISTRIBUCIONES BINOMIAL Y DE POISSON La repetición sucesiva de n pruebas (ensayos) de BERNOUILLI de modo independiente y manteniendo constante la probabilidad de éxito p da lugar a la variable aleatoria
Más detallesDistribuciones de Probabilidad para Variables Aleatorias Discretas 1
Distribuciones de Probabilidad para Variables Aleatorias Discretas Apellidos, nombre Martínez Gómez, Mónica (momargo@eio.upv.es) Marí Benlloch, Manuel (mamaben@eio.upv.es) Departamento Centro Estadística,
Más detallesVariables Aleatorias. Introducción
Variables Aleatorias Introducción Concepto de variable aleatoria Es conveniente que los resultados de un experimento aleatorio estén expresados numéricamente. Se prueban tres componentes electrónicos,
Más detallesFormulario y Tablas de Probabilidad para los Cursos de Probabilidad, Inferencia Estadística y Econometría
Formulario y Tablas de Probabilidad para los Cursos de Probabilidad, Inferencia Estadística y Econometría Ernesto Barrios Zamudio 1 José Ángel García Pérez2 Departamento Académico de Estadística Instituto
Más detalles