CURSO INTRODUCTORIO DE PROBABILIDAD. Universidad Carlos III de Madrid

Tamaño: px
Comenzar la demostración a partir de la página:

Download "CURSO INTRODUCTORIO DE PROBABILIDAD. Universidad Carlos III de Madrid"

Transcripción

1 CURSO INTRODUCTORIO DE PROBABILIDAD Raúl Jiménez y Haydée Lugo Universidad Carlos III de Madrid Septiembre 2009

2 2

3 Índice general Prefacio 5 1. Conceptos básicos Espacios de probabilidad Probabilidad condicional Independencia Espacios equiprobables Problemario I Variables aleatorias discretas Definición y ejemplos Vectores aleatorios discretos Independencia de variables aleatorias discretas Funciones de vectores aleatorios Esperanza Esperanza Condicional Problemario II Variables aleatorias continuas Variables aleatorias continuas Esperanza y funciones de variables aleatorias Densidad conjunta y densidades marginales Independencia de v.a. continuas Cambio de variable y aplicaciones Propiedades de la esperanza Densidad y esperanza condicional Extremos y sumas de variables independientes Problemario III

4 4 ÍNDICE GENERAL 4. Convergencia y funciones generatrices Desigualdad de Chebyshev y Ley de Grandes Números Función generatriz de momentos Función característica Convergencia en distribución y Teorema Central del Límite Problemario IV

5 Prefacio Estas notas no pretenden sustituir los excelentes libros de introducción a la probabilidad que he usado para enseñar a estudiantes de ingeniería y matemáticas de la Universidad Simón Bolívar y a estudiantes de estadística e ingeniería de la Universidad Carlos III de Madrid. Ha sido un verdadero placer basar mis lecciones en los libros de Grimmett y Welsh 1 y Durrett 2. Estos libros son totalmente autocontenidos y un buen estudiante podría prescindir de un profesor para aprender lo que necesite. La intención de estas notas es distinta. Por un lado, proponen un esquema eficiente para un curso de un trimestre o un cuatrimestre para estudiantes que ya manejen el cálculo en varias variables. Por otro, ofrecen al estudiante y al profesor una tabla de contenido ampliada que sirve de guía para un curso sin que sustituya el material que se va a discutir en el pizarrón de clase o el que se debe leer en los libros de referencia. Las notas están organizadas en cuatro capítulos, cada uno puede cubrirse aproximadamente en tres semanas de clases, con dos sesiones por semana (incluyendo sesiones de prácticas). Si el curso es de un trimestre (12 semanas) las secciones 4.2 y 4.3 deberían omitirse y emplear el tiempo que se les hubiera dedicado para evaluaciones y pequeños repasos. Si el curso es de un cuatrimestre (14 semanas) se puede cubrir todo el contenido. Mi recomendación es hacer una evaluación rápida (quiz) al finalizar el Captulo 1 y dos exámenes, uno sobre los dos primeros capítulos y otro sobre los dos últimos. La experiencia me ha demostrado que separar el tema discreto del continuo ayuda al desarrollo y evaluación del curso. Los conceptos y resultados más importantes están resaltados en negro en el texto, en forma de fórmulas numeradas o incluídos en definiciones y teoremas (generalmente con nombres) o en proposiciones numeradas. Las demostraciones no están necesariamente incluídas, aunque muchas se incluyen por o bien considerar que ayudan al discurso de las notas o bien por que la versión que aquí se enseña es mejor que la estándar en este tipo de cursos. La idea es que las notas sean un 5

6 6 ÍNDICE GENERAL material ligero y manipulable, así que se requiere que el profesor demuestre y que el estudiante complete lo que hagan falta. Me comprometo con los lectores en ir llenando poco a poco las notas con la intención de hacerlas aún más autocontenidas, sin que esto modifique la inteción original que tienen. En particular, espero pronto ofrecer soluciones y actualizaciones de algunos ejercicios propuestos así cómo ampliar la gama de ejemplos. Mi premura en ofrecer esta vesión beta es para remplazar unas notas excesivamente rudimentarias e incompletas que yo usaba para mis clases y que se han ido reproduciendo espontáneamente por algunos estudiantes. Estas notas tienen los típicos errores de cut and paste que siempre corregía al pizarrón y me avergüenza que sigan circulando por ahí con mi nombre. Las actualizaciones de las notas pueden obtenerse en forma libre en mi página web Raúl Jiménez Madrid, 2009 Referencias 1. Grimmett, G. y D. J. A. Welsh. Probability: An introduction. Oxford University Press, Oxford (la primera impresión es de 1986 y existen diversan reimpresiones con correcciones desde entonces hasta la del 2003). 2. Durrett R. Essentials of Probability. Duxbury Press, Belmont CA (1993, ahora fuera de prensa para ser reemplazado por Elementary Probability for Applications, versiones PDF se pueden encontrar en la página del autor durrett)

7 Capítulo 1 Conceptos básicos Muchos de los eventos que estamos acostumbrados a observar no pueden ser predeterminados. Por ejemplo, cuánto variará el euro respecto al dólar de hoy a una semana?, cuánto lloverá durante el próximo mes?. El escenario dispuesto para observar lo que está por ocurrir se denomina experimento aleatorio. Los juegos de azar nos brindan ejemplos clásicos de experimentos aleatorios. Aunque los objetos que estudiemos con la teoría de probabilidades estén siempre asociados a un determinado experimento aleatorio, los presentamos en un contexto matemático muy general y útil para la modelación de cualquier escenario Espacios de probabilidad El conjunto de todos los posibles resultados de un experimento aleatorio es llamado espacio muestral y comúnmente denotado por la letra Ω. Otros conjuntos de interés de posibles resultados son llamados eventos y denotados por letras mayúsculas, generalmente las primeras del abecedario. A lo largo de estas notas se hace uso intensivo de operaciones con conjuntos, es por ello que conviene recordar algunos conceptos básicos, tales como: Conjunto vacío. Conjunto numerable, infinito numerable y no numerable. Unión, intersección y diferencia de conjuntos. Complemento y partición de un conjunto. 7

8 8 CAPÍTULO 1. CONCEPTOS BÁSICOS Diagramas de Venn. Leyes distributivas y leyes de Morgan. Dado un experimento aleatorio, la clase F de todos los eventos o conjuntos de interés debe tener ciertas propiedades (razonables): (I) El espacio muestral es un conjunto de interés, Ω F. (II) Si un conjunto es de interés su complemento también lo es, si A F entonces A c F. (III) La unión de una colección contable de eventos es un evento de interés, si A 1,A 2,... son eventos de F entonces n 1 A n F. Una clase de eventos que satisface las tres propiedades anteriores se denomina σ-álgebra. Es fácil comprobar que si F es una σ-álgebra entonces cumple propiedades tales como: (I ) /0 F. (II ) Si A,B F entonces A B F. (III ) Si A 1,A 2,... son eventos de F entonces n 1 A n F. Aún más general, se puede demostrar que F es cerrada bajo operaciones numerables de conjuntos. Uno de nuestros objetivos es medir el chance de que eventos asociados a un experimento aleatorio ocurran: cuál es el chance de que llueva más este otoño que el pasado?, cuál es el chance de que el euro retroceda ante el dólar?, cuál es el chance de ganar un juego de póker?. Una medida de probabilidad es una función que asigna a cada evento el chance o probabilidad que tiene de ocurrir al observar un experimento aleatorio. Si asignamos a los eventos que no tienen chance de ocurrir probabilidad 0 y a los eventos que tienen chance seguro de ocurrir probabilidad 1, entonces una medida

9 1.1. ESPACIOS DE PROBABILIDAD 9 de probabilidad es una función P : F [0, 1] que debe satisfacer las siguientes propiedades: P(Ω) = 1, (1.1) Si A 1,A 2,... son eventos disjuntos de F, es decir si A i A j = /0 para todo i j, entonces P( n 1 A n ) = P(A n ) (1.2) n 1 Esta última propiedad es conocida como σ-aditividad y es natural exigírsela a casi cualquier medida: área, volúmen, etc. La idea subyacente es que toda medida debe permitir medir por partes. A partir de (1.1) y (1.2) las siguientes propiedades de las medidas de probabilidad pueden (y deben) ser demostradas todas de manera directa: P1. P(/0) = 0 P2. Aditividad: Si A 1,A 2,...,A n son eventos disjuntos, entonces P( n i=1 A i) = n i=1 P(A i ) P3. P(A c ) = 1 P(A) P4. P(B A) = P(B) P(B A) P5. Si A B entonces P(B A) = P(B) P(A) P6. Monotonía: Si A B entonces P(A) P(B) P7. P(A B) = P(A) + P(B) P(A B) P8. Subaditividad: P( n 1 A n ) n i=1 P(A i) Otras propiedades que se demuestran con un poco más de trabajo (el profesor puede escoger un par de ellas, recomendamos P10 y P11) son:

10 10 CAPÍTULO 1. CONCEPTOS BÁSICOS P9. Fórmula de inclusión exclusión: P( n i=1 A i) = n i=1 n + i< j<k P(A i ) n i< j P(A i A j ) P(A i A j A k ) + ( 1) n+1 P( n i=1 A i) Note que el caso n = 2 corresponde a P7. El caso n = 3 se requiere para resolver varios ejercicios. P10. σ-subaditividad: Para cualquier sucesión de eventos, no necesariamente disjuntos, P( n 1 A n ) P(A n ) n 1 P11. Continuidad por la izquierda: Si A 1,A 2,... es una sucesión creciente de eventos, es decir, para cualquier n se verifica que A n A n+1, entonces P( n 1 A n ) = lím n P(A n ) P12. Continuidad por la derecha: Si A 1,A 2,... es una sucesión decreciente de eventos, es decir, para cualquier n se verifica que A n+1 A n, entonces P( n 1 A n ) = lím n P(A n ) Dado un espacio muestral Ω, una σ-álgebra F de subconjuntos de Ω y una medida de probabilidad P : F [0,1], la terna (Ω,F,P) es llamada espacio de probabilidad Probabilidad condicional Información adicional, no contemplada, de un experimento puede modificar el escenario de tal forma que la probabilidad que le hayamos dado a un evento puede variar. Por ejemplo, la probabilidad que le hayamos dado a que el euro se revalorizará frente al dólar durante la próxima semana cambiará si sabemos que acaba de ocurrir una caída importante en Wall Street. En general, consideremos

11 1.2. PROBABILIDAD CONDICIONAL 11 que A y B son eventos que ocurren con probabilidad P(A) y P(B). Si sabemos que B ha ocurrido la probabilidad de que A ocurra no tiene por que seguir siendo P(A), ya que A ocurrirá sí y sólo sí A B ocurre. Lo anterior sugiere que, dado que B ocurre, la probabilidad de A es proporcional a P(A B). Ya que, dado que B ocurre, B en un evento seguro, la constante de proporcionalidad a la que hacemos referencia debe ser 1/P(B). La siguiente definición pone orden al trabalenguas anterior. Definición (Probabilidad Condicional). Sean A, B eventos con P(B) > 0, entonces la probabilidad condicional de A dado B se denota por P(A B) y se define por P(A B) P(A B) =. P(B) Para cada evento A, P(A B) es un número positivo, es decir, la probabilidad condicional establece un correspondencia entre los eventos y los números reales positivos. Más específicamente, la probabilidad condicional es una medida de probabilidad. Proposición 1. Sea B un evento con P(B) > 0, entonces (i) Para todo evento A, 0 P(A B) 1 (ii) P(Ω B) = 1 (iii) Si A 1,A 2,... son eventos disjuntos entonces P( n 1 A n B) = P(A n B) n 1 Por la proposición anterior, todas las propiedades que satisfacen las medidas probabilidad también las satisface la probabilidad condicional. Por ejemplo, la probabilidad condicional es monótona, subaditiva, continua por la derecha y por la izquierda. La probabilidad condicional brinda una importante fórmula para el cálculo de probabilidades, cuando se tiene una partición apropiada del espacio muestral. Una partición de un conjunto A es una sucesión de eventos disjuntos B 1,B 2,... cuya unión sea A.

12 12 CAPÍTULO 1. CONCEPTOS BÁSICOS Fórmula de probabilidad total. Sea B 1,B 2,... una partición del espacio muestral, Supongamos que P(B i ) > 0 para i 1. Entonces, para cualquier evento A, P(A) = P(A B i )P(B i ). (1.3) i 1 La aplicación de esta fórmula se basa en la apropiada escogencia de la partición, de manera que P(A B i ) sea sencillo de calcular. Comúnmente esta fórmula simplifica engorrosos cálculos. Ejemplo. Se tienen dos cajas. La primera tiene b 1 bolas blancas y r 1 rojas. La segunda caja tiene b 2 bolas blancas y r 2 rojas. Si se pasa una bola al azar de la primera caja a la segunda y luego se extrae un bola al azar de la segunda caja, use la fórmula de probabilidad total para calcular la probabilidad de extraer una bola blanca de la segunda caja. Son comunes las situaciones en las que se tiene conocimiento preciso, o al menos información estadística, acerca de P(A B) cuando en realidad se requiere conocer P(B A). La siguiente es una sencilla y poderosa fórmula, que relaciona ambas probabilidades. Fórmula de Bayes. Sean A y B eventos con probabilidad no nula, entonces P(B A) = P(A B)P(B) P(A) (1.4) Ejemplo. Continuando con el ejemplo anterior, use la fórmula de Bayes para calcular la probabilidad de haber pasado una bola roja de la primera caja a la segunda caja cuando la que se extrajo de la segunda caja fue blanca. Otra fórmula de mucha utilidad para cálculo de probabilidades, cuando se consideran experimentos secuenciales que son modelados a través de árboles de decisión, es la llamada fórmula de multiplicación: Fórmula de multiplicación. Sean A 1,A 2,...,A n eventos con probabilidad no nula. Entonces, para n 2, P( n i=1 A i) = P(A 1 )P(A 2 A 1 ) P(A n n 1 i=1 A i) (1.5)

13 1.3. INDEPENDENCIA Independencia La noción de independencia en teoría de probabilidades está tomada de su significado cotidiano. En general, decimos que un par es independiente cuando el resultado de las acciones de uno no afecta en el resultado las acciones del otro. En términos probabilísticos, diremos que dos eventos son independientes si la ocurrencia de uno de ellos no afecta la probabilidad de ocurrecia del otro. Es decir, A es independiente de B si P(A B) = P(A) Para que la ecuación anterior esté bien definida, es necesario que P(B) > 0, en cuyo caso, podemos reescribir la ecuación como P(A B) = P(A)P(B) De esta última ecuación podemos observar que: La independencia es recíproca, esto es, si A es independiente de B entonces B es independiente de A. La condición P(B) o P(A) > 0 no es requerida. Ahora estamos en capacidad de definir formalmente la independencia e interpretarla. Independencia de dos eventos. Decimos que el par de eventos A, B son independientes respecto a P si P(A B) = P(A)P(B) (1.6) Cómo generalizar la noción de independencia de una par de eventos a una familia?. Pues igual que en el sentido cotidiano: Para que una familia sea independiente cualquier subgrupo debe serlo, no basta que sean independientes por pares o que lo sea un subgrupo en particular. Independencia de una Familia de Eventos. Decimos que la familia de eventos {A i,i I} es independiente si para cualquier J I P( i J A i ) = Π i J P(A i ) (1.7) Ejemplo. Considere Ω = {1, 2, 3, 4} y P({ω}) = 1/4 para todo ω Ω. Sean A = {1,2}, B = {1,3} y C = {1,4}. Note que la probabilidad de cada uno de estos

14 14 CAPÍTULO 1. CONCEPTOS BÁSICOS eventos es 1/2 y por tanto cada par de eventos son independientes. Por ejemplo, A y B son independientes ya que P(A B) = 1/4 = P(A)P(B). Sin embargo, P(A B C) = 1/4 P(A)P(B)P(C), y por tanto A,B y C no son independientes. Para determinar la no independencia (dependencia) de una familia de eventos basta verificar que la ecuación (1.7) no se cumple para un subgrupo particular (para algún J). Sin embargo, la independencia de una colección de eventos puede ser una propiedad dura de comprobar. Por ejemplo, para verificar por definición la independencia de apenas 10 eventos habría que verificar más de 1000 ecuaciones!. Afortunadamente, consideraremos muchos casos en que la independencia de una familia de eventos es una consecuencia directa de la manera en que son observados. El caso que queremos destacar trata de eventos asociados a repeticiones independientes de experimentos aleatorios, tales como lanzamientos sucesivos de un dado o una moneda. Si se tienen n experimentos independientes, en el sentido de que los resultados de unos no afectan los resultados de los otros, y A 1,A 2,... son eventos asociados al primer experimento, al segundo, etc., entonces A 1,A 2,... son independientes. Los siguientes dos resultados conciernen con sucesiones de eventos asociados a experimentos independientes. Proposición 2. Si A es un evento con probabilidad no nula de que ocurra asociado a un experimento. Si repetimos el experimento infinitas veces, entonces A ocurre alguna vez con probabilidad 1. Para demostrar este resultado aplicamos varias propiedades que hemos aprendido. Llamando A n el evento A ocurre en el nésimo experimento y p = P(A n ), usando P2, las leyes de Morgan, P12 y la independencia de A 1,A 2...,A m, obtenemos P(A ocurre alguna vez) = P( n 1 A n ) = 1 P([ n 1 A n ] c ) = 1 P( n 1 A c n) = 1 lím m P( m n 1 Ac n) = 1 lím m (1 p)m = 1

15 1.4. ESPACIOS EQUIPROBABLES 15 Proposición 3. Sean A y B son eventos mutuamente excluyentes, asociados a un experimento con probabilidad no nula de que ocurran. Entonces, si repetimos el experimento infinitas veces, A ocurre antes que B con probabilidad P(A ocurra antes que B) = Para probar esta proposición observemos que P(A) P(A) + P(B). P(A ocurra antes que B) = P(A ocurre antes que B en el experimento k) k 1 = [P(ni A ni B ocurren)] k P(A) k 0 = P(A) 1 P(ni A ni B ocurren) = 1 P(A) P(A B) = P(A) P(A) + P(B). Una elegante aplicación de la conjunción de este resultado con la fórmula de probabilidad total, que sugerimos que o bien el profesor o bien el estudiante demuestre, determina que la probabilidad de ganar en el juego de dados es ( ) = = 0,493. En el juego tiras los dados en una primera ronda. Si sale 7 o 11 ganas. Si sale 2, 3 o 12 pierdes. Si tiras 4, 5, 6, 8, 9 o 10 hay que seguir lanzando hasta que o bien repitas el número que lanzaste en la primera ronda o bien salga un 7. En el primer caso ganas, en el segundo pierdes Espacios equiprobables En muchos experimentos aleatorios; por ejemplo, en la mayoría de los juegos de azar; el cálculo de probabilidades puede reducirse a contar el número de elementos de un conjunto. Denotemos por A el número de elementos o cardinal del conjunto A. Si Ω es finito y todos los resultados del experimento tienen igual probabilidad de

16 16 CAPÍTULO 1. CONCEPTOS BÁSICOS ocurrencia decimos que el espacio es equiprobable. En ese caso, la probabilidad de un resultado cualquiera del experimento debe ser 1/ Ω, ya que P(Ω) = 1. Así, la probabilidad de un evento A de un espacio equiprobable es P(A) = A / Ω. A continuación, vamos a presentar dos esquemas elementales de conteo. Variaciones y Permutaciones. Sean E y F dos conjuntos finitos. Supongamos sin pérdida de generalidad que E = {1,2,..., p} y F = {1,2,...,n}. Denotemos por I p n el número de funciones inyectivas que van de E a F. Claramente, si p > n entonces I p n = 0. Si p n, podemos construir una función inyectiva f : E F usando el siguiente esquema recursivo: Empezamos seleccionando f (1) entre los n elementos pertenecientes a F. Una vez escogido f (1), existe n 1 posibles escogencias para f (2), ya que f (2) debe diferir de f (1) para que f sea inyectiva. Siguiendo este procedimiento, f (i) puede ser escogido entre los n (i 1) elementos F { f (1),..., f (i 1)}. En total, tenemos n(n 1)...(n p + 1) posibilidades para construir f. En resumen, si p n, el número de inyecciones de E a F es siendo n! el factorial de n, definido por para n 1 y 0! = 1. I p n = n(n 1)...(n p + 1) = n! (n p)!, n! = n (1.8) Varios problemas de conteo se reducen a calcular el número de funciones inyectivas entre dos conjuntos. Por ejemplo, de cuántas maneras podemos colocar p bolas enumeradas en n cajas?. Otro problema típico es: cuántos arreglos, o conjuntos ordenados, pueden construirse extrayendo sin reposición p elementos de un conjuntos con n elementos. La respuesta a ambas preguntas es I p n. El caso especial I n n = P n = n! es comunmente interpretado como el total de permutaciones de n elementos, lo cual no es más que el número de funciones biyectivas sobre un conjunto de n elementos.

17 1.4. ESPACIOS EQUIPROBABLES 17 Números Combinatorios. Sea F un conjunto con n elementos, a continuación vamos a responder la pregunta de cuántos subconjuntos de F con p elementos hay. Ya que un arreglo de p elementos de F (x 1,x 2,...,x p ) puede identificarse como una función inyectiva f : {1,..., p} F definida por f (i) = x i, el número de arreglos o subconjuntos ordenados de F con p elementos es In p. Ahora, las p! permutaciones del arreglo (x 1,...,x p ) representan el mismo subconjunto de F. En consecuencia, el número de subconjuntos diferentes de F con p elementos es In p dividido por el número p! de permutaciones de un conjunto con p elementos. Así, si p n, el número de subconjuntos de F con p elementos es ( ) n n! = (1.9) p (n p)!p! De la fórmula del binomio de Newton y de los cálculos anteriores podemos deducir que el número de subconjuntos de un conjunto de n elementos es 2 n, ya que n p=0 (número de subconjuntos con n elementos) = n p=0 ( ) n = 2 n. (1.10) p Una propiedad útil de los números combinatorios es ( ) ( ) n n =. (1.11) p n p Otra, conocida como fórmula de Pascal, es ( ) ( ) n n 1 = + p p 1 ( n 1 p ). (1.12) Varios problemas clásicos del cálculo de probabilidades, que se reducen a contar el número de elementos de un conjunto son versiones del siguiente problema de muestreo sin reposición: De una caja que contiene N 1 bolas negras y N 2 bolas rojas y escogemos aleatoriamente n bolas (n N 1 +N 2 ) sin reposición. Cuál es la probabilidad de escoger exactamente k bolas negras? Si k es mayor que N 1 o n, la probabilidad de escoger k bolas negras es cero, así que supondremos que 0 k mín(n 1,n). El conjunto

18 18 CAPÍTULO 1. CONCEPTOS BÁSICOS Ω de todos los posibles resultados del experimento aleatorio es la familia de todos los subconjuntos ω de n bolas de las N 1 + N 2 bolas de la caja. De manera que ( ) N1 + N 2 Ω = n Debemos contar los subconjuntos ω con k bolas negras y n k bolas rojas. Para formar tal conjunto debemos formar ( ) un conjunto de k bolas negras entre las N 1 bolas negras. Sabemos que hay N1 k posibilidades de hacer lo anterior. Para cada subconjunto de k bolas negras, debemos asociar un subconjunto( de n) k bolas rojas. Este conjunto lo formamos de entre las N 2 bolas rojas y hay N2 n k maneras de hacerlo. Así que, si A es el evento que consiste en escoger k bolas negras y n k bolas rojas, de las N 1 + N 2 bolas que hay en la caja, entonces ( )( ) N1 N2 A = k n k Por lo tanto, la probabilidad de A es 1.5. Problemario I P(A) = ( N1 ) )( N2 k n k ) (1.13) ( N1 +N 2 n 1. Supongamos que Ω = A B y P(A B) = 0,2. Hallar: a) El máximo valor posible para P(B), de tal manera que se cumpla P(A) P(B). b) P(A c ), sabiendo que P(B) = 0,7 c) P(A c B c ) 2. Dado que: Ω = A B C, P(A) = P(B) = P(C) = p, P(A B) = P(A C) = P(B C) = q y P(A B C) = z. Hallar: a) P(A c B c C) b) P((A B C) c ) c) P(A (B c C c ))

19 1.5. PROBLEMARIO I 19 d) P((A B) c C c ) 3. Se sientan 4 personas, al azar, en 4 sillas que llevan sus nombres (una silla con cada nombre). Qué probabilidad hay de que alguna de las personas quede en la silla con su nombre? 4. La siguiente tabla contiene las probabilidades correspondientes a las intersecciones de los eventos indicados: a) Hallar P(A B) b) Hallar P(B A) c) Hallar P(A c B) d) Hallar P(B c A) B A A c Si n personas se sientan al azar en una fila de 2n asientos, halle la probabilidad de que no queden 2 personas en sillas contiguas. 6. En el lanzamiento de un par de dados, encuentre la probabilidad de que: a) La suma de los dados sea 7 b) La diferencia entre las caras sea mayor que tres. 7. Se lanza una moneda 8 veces, hallar la probabilidad de que: a) se obtengan exactamente 5 caras, b) se obtengan a lo sumo 4 sellos. 8. Las barajas de poker constan de 52 cartas (no incluimos los comodines), distribuidas como sigue: se tienen 4 pintas: corazón ( ), diamante ( ), trébol ( ) y pica ( ). De cada pinta hay 13 cartas denominadas 1,2,...,10, J, Q y K. Se reparten al azar 5 cartas (una mano) a cada jugador. Hallar la probabilidad de que en una mano el jugador I reciba: a) ninguna pica, b) al menos 2 picas, B c

20 20 CAPÍTULO 1. CONCEPTOS BÁSICOS c) 3 cartas del mismo número (un trío) y otras dos cartas con números distintos al del trío y distintos entre sí. Por ejemplo, {3,3,3,5,Q } es una mano incluída en el evento que nos interesa. 9. La urna I contiene r bolas rojas y b blancas. La urna II contiene, inicialmente, una bola roja y una blanca. Se toma una bola al azar de la urna I y se pasa a la II, luego se extrae una bola al azar de la urna II y resulta ser blanca. Cúal es la probabilidad de que la bola pasada de la urna I a la II haya sido blanca? 10. Las llamadas telefónicas a una empresa son recibidas por tres recepcionistas A, B y C, de tal manera que de las 200 llamadas recibidas en un día, 60 son atendidas por la recepcionista A, 80 por B y las restantes por C. La recepcionista A se equivoca al pasar la llamada en un 2 % de las veces, la recepcionista B en un 5 % y la C en un 3 %. Hallar la probabilidad de que al pasar una llamada recibida en la empresa, ésta sea pasada al lugar equivocado 11. Una urna contiene inicialmente r bolas rojas y b blancas. Se extraen 5 bolas, una por una, al azar, sin remplazo. a) Hallar la probabilidad de que la secuencia sea RBRBR (Primera Roja, Segunda Blanca,...). b) Hallar la probabilidad de que la secuencia sea RRRBB. Compare con (a). Generalize. c) Ahora se extraen al azar, una por una y sin remplazo, todas las bolas de la urna. Diga porque todas las secuencias de extracción tienen la misma probabilidad. d) Cuál es la probabilidad de que la última bola extraída sea roja? 12. Un virus peligroso está presente en el 0.01 % de la población nacional. Se tiene una prueba clínica para detectar la presencia del virus, y esta prueba es correcta en el 99 % de los casos (es decir, entre los portadores del virus, la prueba dá positivo el 99 % de las veces y entre los no portadores dá negativo el 99 % de las veces). Un individuo tomado al azar en la población es sometido a la prueba y el resultado de ésta es positivo. Al conocer el resultado de la prueba, cuál es la probabilidad de que este individuo sea realmente un portador del virus?. Comente sobre el valor de esta probabilidad.

21 1.5. PROBLEMARIO I Existen 2 caminos para ir de A hasta B, y 2 caminos para ir desde B a C. Cada uno de los caminos tiene probabilidad p de estar bloqueado, independientemente de los otros. Hallar la probabilidad de que haya un camino abierto de A a B, dado que no hay camino de A a C. 14. Se recibe un lote de 1000 artefactos, de los cuales 60 están dañados. Para decidir si aceptamos o no el lote se seleccionan 200 artefactos al azar, sin remplazo, rechazando el lote si más de 2 están dañados. Hallar la probabilidad de aceptar el lote. 15. Consideremos una sucesión de experimentos independientes consistentes en el lanzamiento de dos dados. En este juego se gana si la suma de los dados es 7. Hallar: a) la probabilidad de ganar por vez primera, en un intento posterior al 12do. b) La probabilidad de haber ganado 2 veces en 20 intentos. c) en 10 intentos, la probabilidad de haber ganado 3 ó más veces. 16. Una unidad de mantenimiento sabe que cada falla reportada tiene probabilidad 0.15 de ser falsa alarma. Si la unidad acepta 25 solicitudes de mantenimiento por día y sólo dispone del tiempo para atender 20 fallas reales, determine: Cuál es la probabilidad de que todas las fallas reales sean atendidas? 17. Un estanque contiene 500 peces de los cuales 300 están marcados. Un pescador logra sacar 50 peces. Hallar la probabilidad de que: a) 20 de los peces estén marcados, b) ninguno de los peces esté marcado. 18. Un lector óptico falla en la lectura del código de barras, con una probabilidad de a) Cuál es la probabilidad de que el lector falle solo una vez en las primeras 10 lecturas? b) Cuál es la probabilidad de que el lector no falle en las primeras 20 lecturas dado que en las primeras 10 lecturas, el lector no falló.

22 22 CAPÍTULO 1. CONCEPTOS BÁSICOS 19. Un depósito guarda 1000 artículos, 100 de los cuales son defectuosos. Un inspector toma uno de los artículos al azar, y si no es defectuoso lo devuelve al lote. Sea N el número de inspecciones de objetos no defectuosos, que se realizan antes de encontrar el primer objeto defectuoso. Calcular la probabilidad de tener 25 N En un colegio de Artes están matriculados 300 hombres y 700 mujeres. Se eligen 25 estudiantes al azar, hallar la probabilidad de que 15 ó más de los elegidos sean mujeres si el muestreo se hace (a) con reemplazo y (b) sin reemplazo.

23 Capítulo 2 Variables aleatorias discretas Consideremos el lanzamiento de un dado, Ω = {1,2,3,4,5,6}, y supongamos que apostamos al resultado de tal manera que nuestra ganancia es 1 si el resultado es impar, 0 si el resultado es 2 o 4, 2,75 si el resultado es 6. Se entiende que ganancias negativas son pérdidas positivas. Si el resultado es ω, la ganancia puede expresarse como X(ω), donde X : Ω R es la función definida por X(1) = X(3) = X(5) = 1 X(2) = X(4) = 0 X(6) = 2,75 X es un ejemplo de una variable aleatoria discreta, las cuales son nuestro actual objeto de estudio Definición y ejemplos Dado un espacio de probabilidad (Ω, F, P), una variable aleatoria discreta es una función X : Ω R tal que 1. Su conjunto de imágenes X(Ω) = {x R : X(ω) = x, para algún ω Ω} es un conjunto numerable. Es decir, X(Ω) = {x i : i I}, para algún conjunto (finito o infinito) de índices I N. 23

24 24 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS 2. Para todo x R se verifica {ω Ω : X(ω) = x} F. (2.1) La primera condición se refiere al hecho de que X toma solamente valores en un conjunto numerable de R. La segunda condición puede parecer oscura al primer vistazo. La idea es que podamos dar probabilidades de que la variable tome cualquiera de sus posibles valores, pero esta probabilidad puede no estar definida si no se satisface (2.1) para algún x (la probabilidad sólo tiene que estar definida para los eventos pertenecientes a F ). Consideremos Ω = N y σ-álgebra F formada por el vacío, los números pares positivos (Pares), los impares positivos (Impares) y N. Sea P : F [0,1] la medida de probabilidad definida por P(Pares) = P(Impares) = 1/2 y X : Ω R la función identidad X(ω) = ω. Note que {ω Ω : X(ω) = x} = {x} si x N = /0 en caso contrario Así que no podemos decir con que probabilidad la variable toma el valor 2 o 4, sólo sabemos que es par con probabilidad 1/2 y un número natural con probabilidad 1. Como mencionamos, nos interesa la probabilidad de que la variable tome cualquiera de sus posible valores. A eso apunta la siguiente definición. Función de masa de probabilidad. La función de masa de probabilidad (fmp) de la variable aleatoria discreta X es la función p X : R [0,1] definida por p X (x) = P(X = x) = P({ω Ω : X(ω) = x}) Ya que P(X = x) es la probabilidad de que X tome el valor x, se tiene que P(X = x) 0 para todo x R P(X = x) = 0 para todo x / X(Ω). Además, y esta es otra importante propiedad de las funciones de masa de probabilidad, P(X = x) = P(X = x) = P(Ω) = 1. (2.2) x x X(Ω) Esta propiedad caracteriza las funciones de masa de probabilidad de las variables aleatorias discretas en el sentido siguiente:

25 2.1. DEFINICIÓN Y EJEMPLOS 25 Si A es un conjunto numerable de R y π : A R satisface π 0 y π(x) = 1, (2.3) x A entonces π es la fmp de una variable aleatoria X asociada a un espacio de probabilidades (Ω, F, P) tal que X(Ω) = A. Otro concepto muy importante en teoría de probabilidades es el de función de distribución de una variable aleatoria: La función de distribución de una variable aleatoria X es la función F X : R [0,1] definida por F X (x) = P(X x). (2.4) A partir de la función de distribución de una variable aleatoria discreta podemos calcular su fmp y viceversa. Específicamente, F X (x) = P(X = x i ) y P(X = x) = F(x) lím F(x ε) x i x ε 0 + En general, basta determinar una de estas dos funciones para calcular probabilidades de los eventos asociados a una variable aleatoria, que en general son del tipo P(X A) = P({ω Ω : X(w) A}) = P(X = x i ) x i A Si F es la función de distribución de una variable aleatoria escribimos X F y si X y Y son variables aleatorias con la misma función de distribución decimos que son igualmente distribuídas y escribimos X Y. Veamos algunos ejemplos clásicos: Distribución Bernoulli. Decimos que X es una variable aleatoria con distribución Bernoulli de parámetro p, y escribimos X Bernoulli(p), si P(X = 1) = p, P(X = 0) = 1 p, para algún p [0,1]. En el argot, p se entiende como la probabilidad de éxito de un determinado suceso en un experimento y q = 1 p la del fracaso o éxito del complemento. Distribución Binomial. Decimos que X tiene distribución Binomial con parámetros n y p, X Bin(n, p), si ( n ) P(X = k) = p k q n k, para k = 0,1,...,n. (2.5) k

26 26 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS Para demostrar que la función definida en (2.5) satisface (2.3) es necesario usar la fórmula del binomio de Newton. Así, n n ) p k=0( k q n k = (p + q) n = 1 k P(X = k) en (2.5) es la probabilidad de observar un total de k éxitos en n experimentos independientes, cada uno con probabilidad p de que sea éxito. Figura 2.1: Funciones de masa de probabilidad de Binomiales de parámetros n = 10 y p = 1/4 (gris), p = 1/2 (negro), p = 3/4 (blanco). Distribución Geométrica. Decimos que la distribución de X es Geométrica con parámetro p, X Geo(p), si Note que P(X = n) = q k 1 p, para n = 1,2,3,... (2.6) k=1 pq k 1 = p k=0 q k = p 1 1 q = 1 La probabilidad (2.6) es la de requerir exactamente n repeticiones independientes de un mismo experimento hasta observar el primer éxito. Igual que antes, p es la probabilidad de éxito en un experimento y q = 1 p.

27 2.2. VECTORES ALEATORIOS DISCRETOS 27 Distribución Hipergeométrica. X es una variable Hipergeométrica de parámetros N,N A y n, con N > máx(n A,n), si P(X = k) = ( )( NA N NA k n k ) ( N n ), para k = 0,1,...,mín(N A,n) (2.7) Para demostrar que esta es una función de masa de probabilidad, es necesario hacer uso de (1.13). La probabilidad (2.7) es la de extraer k elementos de un conjunto A Ω, cuando se extraen aleatoriamente y sin reposicin n elementos de Ω. Aquí A = N A y Ω = N. Distribución de Poisson. X es Poisson de parámetro λ > 0, X Poisson(λ), si P(X = k) = 1 k! λk e λ, para k = 0,1,2,... (2.8) Haciendo uso del desarrollo en serie de Taylor de la función exponencial, es sencillo comprobar que la función definida en (2.8) satisface (2.3). Cuando n es grande y p pequeño, haciendo λ = np, la aproximación ( n k ) p k q n k 1 k! λk e λ es buena. De manera que el modelo Poisson puede entenderse como un caso límite del Binomial, cuando el número de experimentos es grande y la probabilidad de éxito de cada experimento es pequeña. Al final del curso formalizamos esta idea Vectores aleatorios discretos Sean X e Y variables aleatorias discretas definidas sobre un mismo espacio muestral. El vector aleatorio (X,Y ) toma valores en un subconjunto numerable de R 2 y estamos interesados en la probabilidad de que el vector tome esos valores. La función de masa de probabilidad conjunta de las variables X e Y es la función p X,Y : R 2 [0,1] definida por: p X,Y (x,y) = P(X = x,y = y) = P({ω Ω : X(ω) = x} {ω Ω : Y (ω) = y}) (2.9)

28 28 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS Figura 2.2: Funciones de masa de probabilidad de variables Poisson de parámetros λ = 2 (blanco) y λ = 5 (negro). Similar al caso univariante, si x / X(Ω) o y / Y (Ω) entonces P(X = x,y = y) = 0, y P(X = x,y = y) = 1. x y Las funciones de masa de probabilidad P(X = x) y P(Y = y) las podemos obtener a partir de la función de masa de probabilidad conjunta marginalizando de manera adecuada. Para ello, note que Ω = x {ω : X(ω) = x} = y {ω : Y (ω) = y}. Usando la aditividad de la medida de probabilidad P(X = x) = P({ω : X(ω) = x}) = P({ω : X(ω) = x} ( y {ω : Y (ω) = y})) = P({ω : X(ω) = x} {ω : Y (ω) = y}) y = P(X = x,y = y) y Cambiando X por Y en los cáculos anteriores obtenemos la fmp de Y a partir de la conjunta, P(Y = y) = P(X = x,y = y) x En este contexto las funciones P(X = x) y P(Y = y) son llamadas marginales de X y Y respectivamente.

29 2.3. INDEPENDENCIA DE VARIABLES ALEATORIAS DISCRETAS 29 Ejemplo. Sea X una variable que toman valores 1,2,3 y Y una que toma valores 1,2,3,4. Suponga que la probabilidad de que el par (X,Y ) tome el valor (x,y) viene dada por la entrada x,y de la siguiente tabla ,10 0,05 0,05 0,00 2 0,15 0,10 0,05 0,00 3 0,20 0,15 0,10 0,05 Entonces la marginal de X se obtiene sumando las columnas y la de Y las filas. Cuando X,Y son discretas, la función de probabilidad condicional de X dado Y = y se define por la probabilidad condicional P(X = x Y = y) = P(X = x,y = y). P(Y = y) De esta forma, las probabilidades condicionales del tipo P(X A Y = y) se calculan usando la siguiente identidad: P(X A Y = y) = P(X = x Y = y) x A Ejemplo. Siguiendo con el ejemplo anterior, P(X > 1 Y = 1) = 0,35 y P(X > 1 Y = 2) = 0, Independencia de variables aleatorias discretas Recordemos que dos eventos A y B son independientes si P(A B) = P(A)P(B) Hablaremos de independencia de variables si una toma valores independiente de los valores que tome la otra. En otras palabras, las variables discretas X e Y son independientes si los eventos {ω Ω : X(ω) = x} y {ω Ω : Y (ω) = y} son independientes para todo x,y R. Es decir, X y Y son independientes si la función de masa de probabilidad conjunta es el producto de las marginales, P(X = x,y = y) = P(X = x)p(y = y) para todo x,y R

30 30 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS Observación: X,Y son independientes sí y sólamente sí existen funciones f, g : R R tal que P X,Y (x,y) = P(X = x,y = y) = f (x)g(y) para todo x,y R aún cuando f,g no sean las marginales de las variables en cuestión. Ejemplo. Sean X,Y variables aleatorias con función de masa conjunta definida por P(X = x,y = y) = 1 x!y! λx µ y e (λ+µ) x,y = 0,1,... Factorizando tenemos que P(X = x,y = y) = ( λ x )( µ y x! = f (x)g(y), y! e (λ+µ) ) con f (x) = λ x /x! y g(y) = µ y e (λ+µ) /y!, de manera que X e Y son independientes. Sin embargo, las funciones f y g no son funciones de masa de probabilidad. De hecho, las marginales de X,Y son P(X = k) = 1 k! λk e λ y P(Y = k) = 1 k! µk e µ para k = 0,1,... Es conveniente extender el concepto al caso multivariado, pero primero introduciremos una práctica notación que es un estándard en teoría de probabilidades: Para X 1,...,X n : Ω R y A 1,...,A n R escribimos {X 1 A 1,...,X n A n } = n i=1 {ω Ω : X i(ω) A i } Definición (independencia de variables aleatorias). Las variables aleatorias X 1,...,X n son independientes si para cualquier sucesión de intervalos A 1,...,A n R se cumple P(X 1 A 1,...,X n A n ) = P(X 1 A 1 ) P(X n A n )

31 2.4. FUNCIONES DE VECTORES ALEATORIOS Funciones de vectores aleatorios Muchas veces estamos interesados en una función de un vector aleatorio. Es común observar n variables y que nos interesen los valores extremos (el más pequeño y el más grande entre todos los valores observados). También es común estar interesados en el promedio. En general, dado un conjunto de n variables aleatorias X 1,X 2,...,X n y una función g : R n R, nos puede interesar calcular la función de masa de probabilidad de la variable aleatoria definida por U = g(x 1,X 2,...,X n ). Distribución del mínimo. Sean X 1,X 2,...,X n variables aleatorias y denotemos por U n el mńimo de ellas, es decir Es fácil comprobar que U n = mín{x 1,X 2,...,X n }. {U n > k} = {X 1 > k,x 2 > k,...,x n > k} y en consecuencia, si X 1,X 2,...,X n son independientes se tiene P(U n > k) = P(X 1 > k)p(x 2 > k)...p(x n > k) (2.10) Si X 1,X 2,...,X n son variables independientes e idénticamente distribuídas (i.i.d.), entonces (2.10) tiene la forma Por lo tanto, la fmp de U n la podemos escribir como P(U n > k) = [P(X 1 > k)] n (2.11) P(U n = k) = P(U n > k 1) P(U n > k) = [P(X 1 > k 1)] n [P(X 1 > k)] n (2.12) Ejemplo. Sean X 1,X 2,...,X n variables i.i.d geométricas de parámetro p = 1 q (X i Geo(p) para 1 i n). En este caso P(X i > k) = Sustituyendo en (2.12) se tiene que pq j 1 = q k, para k = 1,2,3,... j=k+1 P(mín{X 1,X 2,...,X n } = k) = [q k 1 ] n [q k ] n = [q n ] k 1 (1 q n ).

32 32 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS En decir, el mínimo de variables i.i.d, con distribución geométrica de parametro p es también una variable geométrica, pero de parámetro 1 q n = 1 (1 p) n. Distribución del máximo. Consideremos ahora el máximo de n variables aleatorias. Note que V n = máx{x 1,X 2,...,X n } {V n k} = {X 1 k,x 2 k,...,x n k} Si las variables son independientes se tiene entonces que F Vn (k) = P(V n k) = P(X 1 k)p(x 2 k)...p(x n k) y si son i.i.d. F Vn (k) = [P(X 1 k)] n. (2.13) Ejemplo. Continuando con el ejemplo en el que X 1,X 2,...,X n son i.i.d, geométricas de parámetro p, la función de distribución del máximo V n = máx{x 1,X 2,...,X n } es F Vn (k) = [1 P(X 1 > k)] n = (1 q k ) n para k = 1,2,... Suma de variables aleatorias. Consideremos X,Y variables aleatorias discretas y Z = X +Y. Claramente Z es discreta y toma el valor z sí y solamente sí cuando X toma el valor x, Y toma el valor z x. Así que P(Z = z) = P( x {X = x,y = z x}) = P(X = x,y = z x) x Fórmula de convolución. Si X,Y son variables aleatorias discretas e independientes entonces Z = X +Y tiene fmp P(Z = z) = P(X = x)p(y = z x) x En el caso particular en que X,Y son no negativas, P(X = x) = 0 si x < 0 y P(Y = z x) = 0 si x > z. En ese caso, P(X +Y = z) = z P(X = x)p(y = z x) x=0

33 2.5. ESPERANZA 33 y decimos que la fmp de X +Y es la convolución de las funciones de probabilidad de X y Y. Ejemplo. Sean X,Y v.a. independientes con distribución de Poisson de parámetros λ y µ respectivamente, Usando la fórmula de convolución P(X +Y = z) = z ( )( ) 1 1 x=0 x! λx e λ (z x)! µz x e µ = 1 z! (λ + µ)z e (λ+µ) Es decir, si X Poisson(λ) y Y Poisson(µ) son independientes entonces la suma X +Y Poisson(λ + µ) 2.5. Esperanza Consideremos un dado justo. Si este es lanzado un número grande de veces, cada posible resultado aparecerá alrededor de un sexto de las veces y el promedio del número observado será aproximadamente 1(1/6) + 2(1/6) (1/6) = 3,5 El concepto en su forma más general lleva a la siguiente definición Definición Sea X es una variable aleatoria discreta. La esperanza de X, denotada por E(X) y también llamada valor esperado de X, es el número definido por E[X] = x x P(X = x) siempre y cuando la serie converja. Teorema de transferencia. Si X es una variable discreta y g : R R entonces la esperanza de Y = g(x) es E[Y ] = E[g(X)] = g(x)p(x = x) x

34 34 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS Prueba E[Y ] = y = y = y y P(Y = y) [ ] y {x:g(x)=y} P(X = x) {x:g(x)=y} = g(x)p(x = x) x y P(X = x) Otra importante valor asociado a una variable X es su varianza Var(X), la cual es una medida de dispersión de la variable en torno a su esperanza. Formalmente, la varianza de una variable aleatoria X se define como el valor esperado de la variable (X µ) 2, siendo µ la esperanza de X. Es decir, Var(X) = E([X µ] 2 ) = (x µ) 2 P(X = x) x (2.14) Proposición 4. Var(X) = E[X 2 ] (E[X]) 2 Prueba Var(X) = E([X µ] 2 ) = (x µ) 2 P(X = x) x = (x 2 2xµ + µ 2 )P(X = x) x = x 2 P(X = x) 2µ x x = E[X 2 ] 2µ 2 + µ 2 = E[X 2 ] µ 2 = E[X 2 ] (E[X]) 2 xp(x = x) + µ 2 P(X = x) x El Teorema de transferencia anterior puede extenderse al caso multivariado de la siguiente manera:

35 2.6. ESPERANZA CONDICIONAL 35 Sean X,Y variables discretas y g : R 2 R entonces E[g(X,Y )] = x g(x,y)p(x = x,y = y) (2.15) y Usando (2.15) podemos introducir un importante indicador del grado de dependencia lineal entre dos variables aleatorias: La covarianza entre las variables X,Y es Cov(X,Y ) = E[(X µ X )(Y µ Y )] siendo µ X = E(X) y µ Y = E(Y ). Otros resultados importantes que podemos demostrar de forma sencilla con la fórmula de tranferencia (2.15) son: 1. Linealidad del valor esperado: Si Z = g(x,y ) = ax + by, con a,b R, entonces E(Z) = E(aX + by ) = ae(x) + be(y ) 2. Fórmula para la covarianza: Cov(X,Y ) = E(XY ) E(X)E(Y ) 3. Varianza de combinaciones lineales: Para todo a,b R, Var(aX + by ) = a 2 Var(X) + b 2 Var(Y ) + 2abCov(X,Y ). En particular, Var(aX + b) = a 2 Var(X). 4. Esperanza del producto y varianza de la suma de independientes: Si X,Y son independientes entonces E(XY ) = E(X)E(Y ) Var(X +Y ) = Var(X) +Var(Y ) 2.6. Esperanza Condicional Sea X una variable aleatoria discreta y B un evento asociados al mismo espacio de probabilidad. Supongamos que P(B) > 0. La Esperanza Condicional de X dado el evento B, la cual denotaremos por E(X B), es el valor esperado asociado a la función de masa de probabilidad condicional P(X = x B) = P({ω : X(ω) = x} B). P(B)

36 36 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS Esto es, E[X B] = x x P(X = x B) El siguiente resultado es un versión de la fórmula de probabilidad total (1.3) para valores esperados y de similar utilidad. Fórmula de particionamiento. Si X es una v.a. discreta y B 1,B 2,... son una partición del espacio muestral, con P(B i ) > 0 para cada i, entonces E[X] = i E[X B i ]P(B i ) Prueba de la fórmula E[X] = E[X B i ]P(B i ) i 1 = i 1 = i 1 = x = x [ ] x P(X = x B) P(B i ) x x x P({X = x} B i ) x P({X = x} ( i 1 B i )) x P(X = x) Ejemplo. Una moneda es lanzada repetidamente. Sea p la probabilidad de obtener cara en cada lanzamiento, con 0 < p = 1 q < 1. Vamos a calcular la longitud esperada de la racha inicial (i.e. el número de resultados iguales y consecutivos al primero). Sea H el evento el primer lanzamiento es cara y H c el evento el primer lanzamiento es sello. El par H,H c forma una partición del espacio muestral. Si X es la longitud de la racha inicial, es fácil verificar que P(X = k H) = p k 1 q para k = 1,2,... ya que si H ocurre entonces X = k ocurre sí y sólo sí el primer lanzamiento es seguido por exactamente k 1 caras y después un sello. Similarmente, P(X = k H c ) = q k 1 p para k = 1,2,...

37 2.7. PROBLEMARIO II 37 Es decir, las distribuciones condicionales son geométricas, así que E[X H] = 1 q y E[X Hc ] = 1 p Usando la fórmula de particionamiento obtenemos E[X] = E[X H]P(H) + E[X H c ]P(H c ) = 1 q p + 1 p q = 1 pq Problemario II 1. Calcule e interprete el valor esperado de X cuando tiene distribución: binomial de parámetros n y p geométrica de parámetro p hipergeométrica Poisson de parámetro λ 2. Calcular la varianza de X cuando tiene distribución: binomial de parámetros n y p geométrica de parámetro p Poisson de parámetro λ 3. Si X se distribuye Poisson de parámetro λ, pruebe que E[X(X 1)(X 2)...(X k)] = λ k+1 4. Si X tiene distribución geométrica, pruebe la propiedad de pérdida de memoria P(X > m + n X > m) = P(X > n) 5. Sea N una v.a. a valores enteros no negativos. Verifique que E[N] = P(N > k) (2.16) k 0

38 38 CAPÍTULO 2. VARIABLES ALEATORIAS DISCRETAS 6. Un dado tiene dos cara azules, dos rojas y dos verdes. Se lanza repetidamente. Encuentre la probabilidad de que no todos los colores aparezcan en los primeros k lanzamientos. Deduzca que si N es la v.a. que toma el valor n si el tercer color aparece en el n-ésimo lanzamiento por primera vez, entonces E[N] = 11/2. Sugerencia, use la fórmula (2.16) y la fórmula de inclusión exclusión para la unión de tres eventos. 7. Suponga que P(X = i,y = j) = λ 1+i+ j, para i, j = 0,1,2. Pruebe que E[XY ] = λ 3 + 4λ 4 + 4λ 5 8. Sean X,Y v.a. i.i.d. con P(X = k) = pq k, k 0. Demuestre que para k = 0,...n P(X = k X +Y = n) = 1 n + 1 Sugerencia: Use la fórmula de Bayes y la fórmula de convolución. 9. Existen c diferentes tipos de cromos y cada uno tiene el mismo chance de ser adquirido en una compra (los cromos se venden por separado en un sobre). Sea Y i el número adicional de cromos coleccionados después de obtener i tipos de cromos antes de obtener un nuevo tipo. Demuestre que Y i tiene distribución geométrica con parámetro (c i)/c. Calcule el número esperado de cromos que necesitas adquirir hasta completar la colección. 10. Sean X Geo(p) y, Y Geo(r) variables independientes. Pruebe que mín{x,y } tiene distribución geométrica con parámetro p + r pr. 11. Sean X,Y variables aleatorias independientes con distribución de Poisson de parámetro λ y µ respectivamente. Use el hecho de que X +Y es Poisson para calcular P(X = k X +Y = n) para k = 0,...,n. Demuestre que E[X X +Y = n] = nλ/(λ + µ) Sugerencia: Use la fórmula de Bayes para la primera parte. 12. Sea N el número de lanzamientos de una moneda hasta que se repita el resultado del primer lanzamiento. Condicionando en el primer lanzamiento, calcule E[N].

39 2.7. PROBLEMARIO II La función generatriz de probabilidades de una variable aleatoria discreta X está definida por la serie de potencias g(s) = E [ s X] = s k P(X = k), s < 1. k=0 Calcule la funciones generatrices de probabilidades de las siguientes distribuciones Bernoulli, Binomial y Poisson. 14. A cada fmp le corresponde una única función generatriz de probabilidades. Use la identificación de las funciones generatrices para probar los siguientes resultados: Sumas de Bernoulli i.i.d es Binomial. La suma de Binomiales independientes con el mismo parámetros p es también binomial. Sumas de Poisson independientes es Poisson. 15. Considere que el número de veces que una moneda es lanzada es una v.a. Poisson. Sea X el número de caras y Y el número de sellos. Verifique que X,Y son independientes. Sugerencia: Use la fórmula de particionamiento para calcular la masa de probabilidad de X. 16. Se lanza un dado n veces. Sea U n el mínimo valor observado y V n el máximo valor observado. Calcular P(U n = 1), P(V n = 6). 17. Una línea aérea cubre la ruta CCS-MAD, con un avión que tiene 280 plazas. La política de la aerolínea es aceptar 300 reservaciones para este vuelo. Se supone que todos los pasajeros actúan en forma independiente y que la probabilidad de que un pasajero se presente es p. El precio del pasaje es G, pero si un pasajero se presenta y no puede ser embarcado, se le reintegra su dinero más una compensación de H. Calcule la esperanza del número de pasajeros que se presentan a abordar. De una expresión para la esperanza del número de pasajeros que acuden y no pueden ser embarcados. De una expresión para la ganancia esperada por la aereolínea.

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

Universidad Simón Bolívar CO3121. Probabilidades para Ingenieros. Enero-Marzo 2010 Problemario I

Universidad Simón Bolívar CO3121. Probabilidades para Ingenieros. Enero-Marzo 2010 Problemario I Universidad Simón Bolívar CO3121. Probabilidades para Ingenieros. Enero-Marzo 2010 Problemario I 1. Supongamos que Ω = A B y P (A B) = 0.2. Hallar: (a) El máximo valor posible para P (B), de tal manera

Más detalles

Tema 5 Algunas distribuciones importantes

Tema 5 Algunas distribuciones importantes Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos

Más detalles

Definición de probabilidad

Definición de probabilidad Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total

Más detalles

Hoja 2 Probabilidad. 1.- Sean Ω un espacio muestral y A P(Ω) una σ-álgebra. Para A A fijado, Además, resolver el ejercicio 3 desde (5.a) y (5.b).

Hoja 2 Probabilidad. 1.- Sean Ω un espacio muestral y A P(Ω) una σ-álgebra. Para A A fijado, Además, resolver el ejercicio 3 desde (5.a) y (5.b). Hoja 2 Probabilidad 1.- Sean Ω un espacio muestral y A P(Ω) una σ-álgebra. Para A A fijado, se define A A = {B Ω : B = A C con C A}. Demostrar que A A P(A) es σ-álgebra. 2.- Sea {A n : n 1} A una sucesión

Más detalles

Teoría de la Probabilidad Tema 2: Teorema de Extensión

Teoría de la Probabilidad Tema 2: Teorema de Extensión Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Probabilidad Conceptos como probabilidad, azar, aleatorio son tan viejos como la misma civilización. Y es que a diario utilizamos el concepto de probabilidad: Quizá llueva mañana

Más detalles

Unidad II: Fundamentos de la teoría de probabilidad

Unidad II: Fundamentos de la teoría de probabilidad Unidad II: Fundamentos de la teoría de probabilidad 2.1 Teoría elemental de probabilidad El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos que se denominan aleatorios, cuya característica

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias

Más detalles

Conceptos. Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado.

Conceptos. Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado. Teresa Pérez P DíazD Profesora de matemática tica Conceptos Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado. Ejemplos: E : Lanzar un dado,

Más detalles

HOJA DE TRABAJO UNIDAD 3

HOJA DE TRABAJO UNIDAD 3 HOJA DE TRABAJO UNIDAD 3 1. Defina que es probabilidad Es el estudio de experimentos aleatorios o libres de determinación, el resultado es al azar. Se refiere al estudio de la aleatoriedad y a la incertidumbre.

Más detalles

Unidad Temática 2 Probabilidad

Unidad Temática 2 Probabilidad Unidad Temática 2 Probabilidad Responda verdadero o falso. Coloque una letra V a la izquierda del número del ítem si acepta la afirmación enunciada, o una F si la rechaza. 1. El experimento que consiste

Más detalles

VARIABLES ALEATORIAS DISCRETAS

VARIABLES ALEATORIAS DISCRETAS VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:

Más detalles

Prueba Integral Lapso /6

Prueba Integral Lapso /6 Prueba Integral Lapso 2 009-2 76 - /6 Universidad Nacional Abierta Probabilidad y Estadística I (76) Vicerrectorado Académico Cód. Carrera: 06-20 - 508 Fecha: 2-2 - 2 009 MODELO DE RESPUESTAS Objetivos,

Más detalles

Variables aleatorias

Variables aleatorias Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,

Más detalles

Distribuciones de Probabilidad

Distribuciones de Probabilidad Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica

Más detalles

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro La probabilidad nos proporciona un modelo teórico para la generación de los datos experimentales Medidas de la Posibilidad

Más detalles

Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta

Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta Matemática Discreta - CC3101 Profesor: Pablo Barceló P. Barceló Matemática

Más detalles

Tema 3: Cálculo de Probabilidades. Métodos Estadísticos

Tema 3: Cálculo de Probabilidades. Métodos Estadísticos Tema 3: Cálculo de Probabilidades Métodos Estadísticos 2 INTRODUCCIÓN Qué es la probabilidad? Es la creencia en la ocurrencia de un evento o suceso. Ejemplos de sucesos probables: Sacar cara en una moneda.

Más detalles

Probabilidad Condicional

Probabilidad Condicional Probabilidad Condicional Algunas veces la ocurrencia de un evento A puede afectar la ocurrencia posterior de otro evento B; por lo tanto, la probabilidad del evento B se verá afectada por el hecho de que

Más detalles

ESTADÍSTICA INFERENCIAL

ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL 1 Sesión No. 2 Nombre: Probabilidad Contextualización En la sesión anterior analizamos cómo a largo plazo un fenómeno aleatorio o probabilístico posee un

Más detalles

5 DISTRIBUCIONES BINOMIAL Y DE POISSON

5 DISTRIBUCIONES BINOMIAL Y DE POISSON 5 DISTRIBUCIONES BINOMIAL Y DE POISSON La repetición sucesiva de n pruebas (ensayos) de BERNOUILLI de modo independiente y manteniendo constante la probabilidad de éxito p da lugar a la variable aleatoria

Más detalles

Teoría de la decisión

Teoría de la decisión Teoría de la decisión Repaso de Estadística Unidad 1. Conceptos básicos. Teoría de. Espacio muestral. Funciones de distribución. Esperanza matemática. Probabilidad condicional 1 Teoría de la decisión Teoría

Más detalles

Probabilidad. Generalidades

Probabilidad. Generalidades robabilidad Generalidades a probabilidad estudia experimentos en los que se pueden esperar varios resultados y no solamente uno. os experimentos se pueden clasificar como aleatorios o determinísticos.

Más detalles

Capítulo 6: Variable Aleatoria Bidimensional

Capítulo 6: Variable Aleatoria Bidimensional Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el

Más detalles

Tema 4. Probabilidad Condicionada

Tema 4. Probabilidad Condicionada Tema 4. Probabilidad Condicionada Presentación y Objetivos. En este tema se dan reglas para actualizar una probabilidad determinada en situaciones en las que se dispone de información adicional. Para ello

Más detalles

Distribuciones de probabilidad bidimensionales o conjuntas

Distribuciones de probabilidad bidimensionales o conjuntas Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso

Más detalles

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. Regla de la cadena Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de

Más detalles

Cálculo de Probabilidades II Preguntas Tema 1

Cálculo de Probabilidades II Preguntas Tema 1 Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga

Más detalles

1.1. Distribución exponencial. Definición y propiedades

1.1. Distribución exponencial. Definición y propiedades CONTENIDOS 1.1. Distribución exponencial. Definición y propiedades 1.2. Procesos de conteo 1.3. Procesos de Poisson - Tiempos de espera y entre llegadas - Partición y mezcla de un proceso de Poisson -

Más detalles

Conjuntos, relaciones y funciones Susana Puddu

Conjuntos, relaciones y funciones Susana Puddu Susana Puddu 1. Repaso sobre la teoría de conjuntos. Denotaremos por IN al conjunto de los números naturales y por ZZ al de los enteros. Dados dos conjuntos A y B decimos que A está contenido en B o también

Más detalles

Análisis de Datos y Métodos Cuantitativos para la Toma de Decisiones 7ma versión MGM

Análisis de Datos y Métodos Cuantitativos para la Toma de Decisiones 7ma versión MGM Universidad Católica del Norte Escuela de Negocios Mineros Magíster en Gestión Minera Análisis de Datos y Métodos Cuantitativos para la Toma de Decisiones 7ma versión MGM Antofagasta, Junio de 2014 Freddy

Más detalles

Terminaremos el capítulo con una breve referencia a la teoría de cardinales.

Terminaremos el capítulo con una breve referencia a la teoría de cardinales. TEMA 5. CARDINALES 241 Tema 5. Cardinales Terminaremos el capítulo con una breve referencia a la teoría de cardinales. Definición A.5.1. Diremos que el conjunto X tiene el mismo cardinal que el conjunto

Más detalles

DISTRIBUCIÓN N BINOMIAL

DISTRIBUCIÓN N BINOMIAL DISTRIBUCIÓN N BINOMIAL COMBINACIONES En muchos problemas de probabilidad es necesario conocer el número de maneras en que r objetos pueden seleccionarse de un conjunto de n objetos. A esto se le denomina

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Programa Probabilidad Teoría de conjuntos Diagramas de Venn Permutaciones y combinaciones Variables aleatorias y distribuciones Propiedades de distribuciones Funciones generadoras

Más detalles

TEMA 2 EXPERIMENTOS ALEATORIOS Y CÁLCULO DE PROBABILIDADES

TEMA 2 EXPERIMENTOS ALEATORIOS Y CÁLCULO DE PROBABILIDADES TEMA 2 EXPERIMENTOS ALEATORIOS Y CÁLCULO DE PROBABILIDADES EXPERIMENTOS: EJEMPLOS Deterministas Calentar agua a 100ºC vapor Soltar objeto cae Aleatorios Lanzar un dado puntos Resultado fútbol quiniela

Más detalles

Probabilidad. Si lanzamos una moneda no sabemos de antemano si saldrá cara o cruz. Teoría de probabilidades

Probabilidad. Si lanzamos una moneda no sabemos de antemano si saldrá cara o cruz. Teoría de probabilidades Experimentos deterministas Probabilidad Son los experimentos de los que podemos predecir el resultado antes de que se realicen. Si dejamos caer una piedra desde una ventana sabemos, sin lugar a dudas,

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes CNM-108 Departamento de Matemáticas Facultad de Ciencias Exactas y Naturales Universidad de Antioquia Copyleft c 2008. Reproducción

Más detalles

2. Probabilidad y. variable aleatoria. Curso 2011-2012 Estadística. 2. 1 Probabilidad. Probabilidad y variable aleatoria

2. Probabilidad y. variable aleatoria. Curso 2011-2012 Estadística. 2. 1 Probabilidad. Probabilidad y variable aleatoria 2. Probabilidad y variable aleatoria Curso 2011-2012 Estadística 2. 1 Probabilidad 2 Experimento Aleatorio EL término experimento aleatorio se utiliza en la teoría de la probabilidad para referirse a un

Más detalles

PROBLEMAS DE PROBABILIDAD. 3. Calcula la probabilidad de que al lanzar dos dados la suma de sus puntos sea: a) igual a 5 b) mayor que 10

PROBLEMAS DE PROBABILIDAD. 3. Calcula la probabilidad de que al lanzar dos dados la suma de sus puntos sea: a) igual a 5 b) mayor que 10 1. Se lanza un dado. Halla la probabilidad: a) de salir el 3 b) de salir un número par c) de salir un número mayor que 2 PROBLEMAS DE PROBABILIDAD 2. Calcula la probabilidad de que al lanzar dos monedas:

Más detalles

EXPERIMENTO ALEATORIO

EXPERIMENTO ALEATORIO EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,

Más detalles

Variable Aleatoria Continua. Principales Distribuciones

Variable Aleatoria Continua. Principales Distribuciones Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables

Más detalles

Unidad IV: Distribuciones muestrales

Unidad IV: Distribuciones muestrales Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia

Más detalles

MOOC UJI: La Probabilidad en las PAU

MOOC UJI: La Probabilidad en las PAU 4. Probabilidad Condicionada: Teoremas de la Probabilidad Total y de Bayes 4.1. Probabilidad Condicionada Vamos a estudiar como cambia la probabilidad de un suceso A cuando sabemos que ha ocurrido otro

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

ESTADÍSTICA INFERENCIAL

ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL 1 Sesión No. 4 Nombre: Distribuciones de probabilidad para variables Contextualización En la sesión anterior se definió el concepto de variable aleatoria

Más detalles

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios Esta lista contiene ejercicios y problemas tanto teóricos como de modelación. El objetivo

Más detalles

Probabilidad 3/1/2010. EVSC 5020: Bioestadística. Qué es probabilidad? Prof. Rafael R. Canales-Pastrana. EVSC 5020: Bioestadística

Probabilidad 3/1/2010. EVSC 5020: Bioestadística. Qué es probabilidad? Prof. Rafael R. Canales-Pastrana. EVSC 5020: Bioestadística Probabilidad Prof. Rafael R. Canales-Pastrana 2 Qué es probabilidad? 3 1 Definiciones de Probabilidad La medida del grado de confianza que uno tiene, en que ocurra el acontecimiento. Método axiomático:

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

Álgebra Lineal y Estructuras Matemáticas. J. C. Rosales y P. A. García Sánchez. Departamento de Álgebra, Universidad de Granada

Álgebra Lineal y Estructuras Matemáticas. J. C. Rosales y P. A. García Sánchez. Departamento de Álgebra, Universidad de Granada Álgebra Lineal y Estructuras Matemáticas J. C. Rosales y P. A. García Sánchez Departamento de Álgebra, Universidad de Granada Capítulo 8 Combinatoria La combinatoria es la técnica de saber cuántos elementos

Más detalles

Teoremas de Convergencia

Teoremas de Convergencia Capítulo 24 Teoremas de Convergencia El teorema de la convergencia monótona (Lema 21.3) establece ciertas condiciones sobre una sucesión de funciones medibles para que se puedan permutar los símbolos y

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA 4 horas a la semana 8 créditos Semestre variable según la carrera Objetivo del curso: Analizar y resolver problemas de naturaleza aleatoria en la ingeniería, aplicando conceptos

Más detalles

Álgebra lineal. Curso Tema 5. Hoja 1. Tema 5. PROBABILIDAD. 1. Probabilidad: conceptos fundamentales. Regla de Laplace.

Álgebra lineal. Curso Tema 5. Hoja 1. Tema 5. PROBABILIDAD. 1. Probabilidad: conceptos fundamentales. Regla de Laplace. Álgebra lineal. Curso 2007-2008. Tema 5. Hoja 1 Tema 5. PROBABILIDAD. 1. Probabilidad: conceptos fundamentales. Regla de Laplace. 1. Un dado se lanza dos veces. Se pide: (a) Construir el espacio muestral.

Más detalles

6. VARIABLES ALEATORIAS

6. VARIABLES ALEATORIAS 6. VARIABLES ALEATORIAS Objetivo Introducir la idea de una variable aleatoria y su distribución y características como media, varianza etc. Bibliografía recomendada Peña y Romo (1997), Capítulo 15. Hasta

Más detalles

Grupo 23 Semestre Segundo examen parcial

Grupo 23 Semestre Segundo examen parcial Probabilidad Grupo 23 Semestre 2015-2 Segundo examen parcial La tabla siguiente presenta 20 postulados, algunos de los cuales son verdaderos y otros son falsos. Analiza detenidamente cada postulado y elige

Más detalles

Asignaturas antecedentes y subsecuentes

Asignaturas antecedentes y subsecuentes PROGRAMA DE ESTUDIOS PROBABILIDAD Área a la que pertenece: Área Sustantiva Profesional Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0056 Asignaturas antecedentes y subsecuentes PRESENTACIÓN

Más detalles

Espacio muestral. Operaciones con sucesos

Espacio muestral. Operaciones con sucesos Matemáticas CCSS. 1º Bachiller Tema 12. Probabilidad Espacio muestral. Operaciones con sucesos 1. Determina el espacio muestral de los siguientes experimentos a) Lanzar una moneda y anotar el resultado

Más detalles

4.1. Polinomios y teoría de ecuaciones

4.1. Polinomios y teoría de ecuaciones CAPÍTULO 4 Polinomios y teoría de ecuaciones 4.1. Polinomios y teoría de ecuaciones Un polinomio real en x, o simplemente polinomio en x es una expresión algebraica de la forma a n x n + a n 1 x n 1 +

Más detalles

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre

Más detalles

Tema 4: Probabilidad y Teoría de Muestras

Tema 4: Probabilidad y Teoría de Muestras Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009

Más detalles

Recordemos que utilizaremos, como es habitual, la siguiente notación para algunos conjuntos de números que son básicos.

Recordemos que utilizaremos, como es habitual, la siguiente notación para algunos conjuntos de números que son básicos. Capítulo 1 Preliminares Vamos a ver en este primer capítulo de preliminares algunos conceptos, ideas y propiedades que serán muy útiles para el desarrollo de la asignatura. Se trata de resultados sobre

Más detalles

Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad

Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Indice 1) Sucesos aleatorios. Espacio muestral. 2) Operaciones con sucesos. 3) Enfoques de la Probabilidad.

Más detalles

Pregunta 1 Es correcta esta definición? Por qué?

Pregunta 1 Es correcta esta definición? Por qué? TEORÍA DE CONJUNTOS. En un libro de COU de 1975 puede leerse la siguiente definición de conjunto: Un conjunto es una colección de objetos, cualquiera que sea su naturaleza. Pregunta 1 Es correcta esta

Más detalles

Tiempo completo Tiempo parcial Total Mujeres Hombres Total

Tiempo completo Tiempo parcial Total Mujeres Hombres Total ASIGNACION DE ROBABILIDAD A manera de introducción al tema analicemos las diferencias entre eventos mutuamente excluyentes, no mutuamente excluyentes, dependientes e independientes. Ejemplo : En un grupo

Más detalles

Distribuciones de probabilidad más usuales

Distribuciones de probabilidad más usuales Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y

Más detalles

Probabilidad Condicional

Probabilidad Condicional Cómo actualizar la probabilidad de un evento dado que ha sucedido otro? o Cómo cambia la probabilidad de un evento cuando se sabe que otro evento ha ocurrido? Ejemplo: Una persona tiene un billete de lotería

Más detalles

Bioestadística. Curso Capítulo 3

Bioestadística. Curso Capítulo 3 Bioestadística. Curso 2012-2013 Capítulo 3 Carmen M a Cadarso, M a del Carmen Carollo, Xosé Luis Otero, Beatriz Pateiro Índice 1. Introducción 2 2. Variable aleatoria 2 2.1. Variables aleatorias discretas...............................

Más detalles

TEMA 17: PROBABILIDAD

TEMA 17: PROBABILIDAD TEMA 17: PROBABILIDAD Probabilidad de un suceso aleatorio es un numero entre 0 y 1 (más cerca del 0, mas difícil que ocurra. Más cerca del 1 más fácil que ocurra). Suceso seguro: Su probabilidad es 1.

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad

Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 1.1. Aleatoriedad e incertidumbre 1.2 Probabilidad

Más detalles

MODELO DE RESPUESTAS Objetivos del 1 al 9

MODELO DE RESPUESTAS Objetivos del 1 al 9 PRUEBA INTEGRAL LAPSO 05-764 - /9 Universidad Nacional Abierta Probabilidad y Estadística I (Cód. 764) Vicerrectorado Académico Cód. Carrera: 6 Fecha: 0-04-06 MODELO DE RESPUESTAS Objetivos del al 9 OBJ

Más detalles

Discretas. Continuas

Discretas. Continuas UNIDAD 0. DISTRIBUCIÓN TEÓRICA DE PROBABILIDAD Discretas Binomial Distribución Teórica de Probabilidad Poisson Normal Continuas Normal Estándar 0.1. Una distribución de probabilidad es un despliegue de

Más detalles

Probabilidad condicional

Probabilidad condicional Probabilidades y Estadística (M) Práctica 2: Probabilidad Condicional e Independencia 2 cuatrimestre 2008 Tiempo estimado: 3 clases Probabilidad condicional 1. Hay 3 cajas A, B y C con 20 piezas cada una,

Más detalles

Son los experimentos de los que podemos predecir el resultado antes de que se realicen.

Son los experimentos de los que podemos predecir el resultado antes de que se realicen. PROBABILIDAD Definición de probabilidad La probabilidad de un suceso es un número, comprendido entre 0 y 1, que indica las posibilidades que tiene de verificarse cuando se realiza un experimento aleatorio.

Más detalles

Solución del I Examen de Matemáticas Discreta

Solución del I Examen de Matemáticas Discreta Solución del I Examen de Matemáticas Discreta 1. En un grupo hay 10 hombres y 15 mujeres: (a De cuantas maneras se puede elegir una comisión de 5 personas si hay al menos un hombre y dos mujeres? (b De

Más detalles

Generación de variables aleatorias continuas Método de la transformada inversa

Generación de variables aleatorias continuas Método de la transformada inversa Generación de variables aleatorias continuas Método de la transformada inversa Georgina Flesia FaMAF 16 de abril, 2013 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:

Más detalles

Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B

Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Marzo 2010 Contenidos...............................................................

Más detalles

4.12 Ciertos teoremas fundamentales del cálculo de probabilidades

4.12 Ciertos teoremas fundamentales del cálculo de probabilidades 1 de 9 15/10/2006 05:57 a.m. Nodo Raíz: 4. Cálculo de probabilidades y variables Siguiente: 4.14 Tests diagnósticos Previo: 4.10 Probabilidad condicionada e independencia de 4.12 Ciertos teoremas fundamentales

Más detalles

SESION 12 LA DISTRIBUCIÓN BINOMIAL

SESION 12 LA DISTRIBUCIÓN BINOMIAL SESION LA DISTRIBUCIÓN BINOMIAL I. CONTENIDOS:. La distribución omial.. Variables aleatorias en una distribución omial. 3. Descripciones de la distribución omial. 4. Distribución de Poisson. II. OBJETIVOS:

Más detalles

CI2612: Algoritmos y Estructuras de Datos II. Espacio de probabilidad. Objetivos. Blai Bonet

CI2612: Algoritmos y Estructuras de Datos II. Espacio de probabilidad. Objetivos. Blai Bonet CI2612: Algoritmos y Estructuras de Datos II Blai Bonet Análisis probabiĺıstico Universidad Simón Boĺıvar, Caracas, Venezuela Objetivos Espacio de probabilidad Las probabilidades se definen sobre un espacio

Más detalles

Tema 6 Probabilidad. 0.-Introducción La probabilidad de un suceso es un número, comprendido entre 0 y

Tema 6 Probabilidad. 0.-Introducción La probabilidad de un suceso es un número, comprendido entre 0 y Tema 6 Probabilidad 0.-Introducción La probabilidad de un suceso es un número, comprendido entre 0 y 1, que indica las posibilidades que tiene de verificarse cuando se realiza un experimento aleatorio.

Más detalles

Distribuciones de Probabilidad para Variables Aleatorias Discretas 1

Distribuciones de Probabilidad para Variables Aleatorias Discretas 1 Distribuciones de Probabilidad para Variables Aleatorias Discretas Apellidos, nombre Martínez Gómez, Mónica (momargo@eio.upv.es) Marí Benlloch, Manuel (mamaben@eio.upv.es) Departamento Centro Estadística,

Más detalles

EJERCICIOS DEL BLOQUE DE PROBABILIDAD.

EJERCICIOS DEL BLOQUE DE PROBABILIDAD. EJERCICIOS DEL BLOQUE DE PROBABILIDAD. 1.- Cuál es la probabilidad de sacar los dos ases al lanzar dos dados? 2.- Cuál es la probabilidad de obtener tres caras, lanzando al aire una moneda tres veces?.

Más detalles

UNIDAD XI Eventos probabilísticos

UNIDAD XI Eventos probabilísticos UNIDAD XI Eventos probabilísticos UNIDAD 11 EVENTOS PROBABILÍSTICOS Muchas veces ocurre que al efectuar observaciones en situaciones análogas y siguiendo procesos idénticos se logaran resultados diferentes;

Más detalles

HOJA 32: EJERCICIOS DE REPASO DE PROBABILIDAD

HOJA 32: EJERCICIOS DE REPASO DE PROBABILIDAD pág.45 HOJA 32: EJERCICIOS DE REPASO DE PROBABILIDAD 1.- De una baraja española de 40 cartas se extrae una al azar, cuál es la probabilidad de que sea bastos o menor que 5? 2.- Dos jugadores (A y B) inician

Más detalles

Teoría de muestras 2º curso de Bachillerato Ciencias Sociales

Teoría de muestras 2º curso de Bachillerato Ciencias Sociales TEORÍA DE MUESTRAS Índice: 1. Introducción----------------------------------------------------------------------------------------- 2 2. Muestras y población-------------------------------------------------------------------------------

Más detalles

Variables aleatorias unidimensionales

Variables aleatorias unidimensionales Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen

Más detalles

UNIDAD II Eventos probabilísticos

UNIDAD II Eventos probabilísticos UNIDAD II Eventos probabilísticos UNIDAD 2 EVENTOS PROBABILÍSTICOS Muchas veces ocurre que al efectuar observaciones en situaciones análogas y siguiendo procesos idénticos se logaran resultados diferentes;

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

En matemáticas el concepto de conjunto es considerado primitivo y no se da una definición de este, por lo tanto la palabra CONJUNTO debe aceptarse

En matemáticas el concepto de conjunto es considerado primitivo y no se da una definición de este, por lo tanto la palabra CONJUNTO debe aceptarse En matemáticas el concepto de conjunto es considerado primitivo y no se da una definición de este, por lo tanto la palabra CONJUNTO debe aceptarse lógicamente como un término no definido. Un conjunto se

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad

Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 2.1. Variables aleatorias: funciones de distribución,

Más detalles

ESTADÍSTICA I, curso Problemas Tema 4

ESTADÍSTICA I, curso Problemas Tema 4 ESTADÍSTICA I, curso 007-008 Problemas Tema 4 1. En un problema de una prueba aplicada a niños pequeños se les pide que hagan corresponder tres dibujos de animales con la palabra que identifica a ese animal.

Más detalles

Conceptos de Probabilidad (II)

Conceptos de Probabilidad (II) Conceptos de Probabilidad (II) Jhon Jairo Padilla A., PhD. Necesidad Es común escuchar frases como: Juan Probablemente ganará el torneo de tenis Tengo posibilidad de ganarme la lotería esta noche La mayoría

Más detalles

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO I LOGICA Y CONJUNTOS.

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO I LOGICA Y CONJUNTOS. ALGEBRA y ALGEBRA LINEAL 520142 Primer Semestre CAPITULO I LOGICA Y CONJUNTOS. DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas Universidad de Concepción 1 La lógica es

Más detalles

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará

Más detalles

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos

Más detalles

Algebra lineal y conjuntos convexos

Algebra lineal y conjuntos convexos Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar

Más detalles

CÁLCULO DE PROBABILIDADES

CÁLCULO DE PROBABILIDADES CÁLCULO DE PROBABILIDADES 1. Regla de Laplace. Ejercicio 1. (2005) Ejercicio 2. (2004) María y Laura idean el siguiente juego: cada una lanza un dado, si en los dos dados sale el mismo número, gana Laura;

Más detalles

Estructuras Algebraicas

Estructuras Algebraicas Tema 1 Estructuras Algebraicas Definición 1 Sea A un conjunto no vacío Una operación binaria (u operación interna) en A es una aplicación : A A A Es decir, tenemos una regla que a cada par de elementos

Más detalles

Probabilidad. Literature de ficción para níños. Literature de no ficción para níños. Literature de ficción para adultos. Otras

Probabilidad. Literature de ficción para níños. Literature de no ficción para níños. Literature de ficción para adultos. Otras C APÍTULO 0 Probabilidad Resumen del contenido El Capítulo 0 presenta unos conceptos básicos de probabilidad, incluyendo clases especiales de eventos, valores esperados y permutaciones y combinaciones

Más detalles