MA Probabilidades
|
|
- María Antonia Espinoza Márquez
- hace 7 años
- Vistas:
Transcripción
1 Facultad de Ciencias Físicas y Matemáticas Universidad de Chile Martinez, Servet MA Probabilidades Transcriptor: Alan Beltrán Flores 1 Otoño Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Román, que pasaron sus apuntes de clases a las que falté (justificadamente, por supuesto)
2 2
3 Índice general Clase 01-12/03/ Clase 02-14/03/ Clase 03-19/03/ Clase 04-21/03/ Clase 05-26/03/ Clase 06-28/03/ Clase 07-02/04/ Clase 08-04/04/ Clase 09-09/04/ Clase 10-16/04/ Clase 11-18/04/ Clase 12-23/04/ Clase 13-25/04/ Clase 14-29/04/ Clase 15-02/05/ Clase 16-07/05/ Clase 17-09/05/ Clase 18-14/05/ Clase 19-16/05/
4 4 ÍNDICE GENERAL
5 Clase 01-12/03/2013 Axiomática de Probabilidades - Ω conjunto de puntos llamado espacio muestral - β clase de eventos Los elementos de β son subconjuntos de Ω, es decir, β P(Ω), en donde P(Ω) = {ω Ω} es el conjunto potencia de Ω. En la axiomatica, β es una σ-algebra (sigma-algebra). Definicion β es una σ-algebra si: 0. β P(Ω) 1., Ω β 2. B β B c β, en donde B c = Ω \ B 3. B n β n N B n β A la propiedad 3 se le llama ser cerrado por complemento, mientras a la propiedad 4 se le llama ser cerrado por union numerable. Nota B n β n N lo escribiremos (B n : n N) Definicion Si β es σ-algebra, a la pareja (Ω, β) se le llama espacio medible. Propiedad Toda σ-algebra β es un algebra [de conjuntos], es decir, verifica las propiedades 0, 1, 2 y: 3. A, B β A B β Demostracion Tomemos B 1 = A, B 2 = B y B n = A n > 2. Se tiene entonces que B n β n N. Luego, A B = B n, que pertenece a β gracias a 3. Observacion Notemos que la propiedad 3 equivale a: n N, B 1,..., B n β = 1 n B i β
6 2 ÍNDICE GENERAL Demostracion Por induccion: Para n = 1, es evidente. Entonces, si tenemos un n, demostremos para el n + 1: Por 3 Y queda asi demostrado. B 1,..., B n, B n+1 β n B i β; B n+1 β ( n ) B i B n+1 β Recuerdo Recordemos las leyes de Morgan: Para finitos: n+1 B i β ( n ) c B i = n (Bi c ) ( n ) c n B i = (Bi c ) Para numerables: ( ) c B i = (Bi c ) ( ) c B i = (Bi c ) Nota Propiedad B i = {ω Ω : ω B n, n N} Si β es σ-algebra, entonces: n a) B 1,..., B n β β b) (B n : n N) β β Demostracion n a) B 1,..., B n β (2) B1, c..., Bn c β (3 ) Bi c β b) Es analoga a la anterior. ( n ) c n Bi c = B i β Propiedad Si β es σ-algebra, entonces verifica que: A, B β A \ B β A, B β A B β
7 ÍNDICE GENERAL 3 Demostracion Ambas pueden ser escritas en forma de uniones e intersecciones A \ B = A B c A B = (A \ B) (B \ A) = (A B c ) (B A c ) Todos los conjuntos resultados de uniones e intersecciones, uniones numerables, diferencias y diferencias simetricas estaran en β. Propiedad Sea β σ-algebra. Sea (B n : n N) β. Entonces: lím sup B n β En donde: lím inf B n β lím sup B n = k n lím inf B n = k n B k B k Nota lím sup B n = {ω Ω : n N k n tal que ω B k } = {ω Ω : k n tal que ω B kn } = {ω Ω : {k N : ω B n } < } lím inf n = {ω Ω : n N k n tal que ω B k } = {ω Ω : {k N : ω / B n } < } A = Cardinal de A Observaciones Por la ley de Morgan: ( ) c lím sup B n = lím inf ( ) c lím inf B n = lím sup Bc n B c n Propiedad Sea Ω un espacio. Sean β, β σ-algebras. Entonces β β es σ-algebra. Luego, para i = 1,..., n: n B i es σ-algebra.
8 4 ÍNDICE GENERAL Demostracion 0. β β P(Ω) 1., Ω β;, Ω β, Ω β β 2. B β β B c β β 3. (B n : n N) β β B n β β 2 y 3 son porque β y β son σ-algebras. Propiedad Nota Sean Ω, Λ espacios. Si β λ es σ-algebra en Ω λ Λ, entonces: β λ es σ-algebra. λ Λ β λ = {B P(Ω) : B β λ λ Λ} λ Λ Demostracion 0. β λ P(Ω) λ Λ λ Λ β λ P(Ω) 1., Ω β λ λ Λ, Ω λ Λ β λ 2. B β λ B β λ λ Λ B c β λ λ Λ B c β λ λ Λ λ Λ 3. (B n : n N) β λ (B n : n N) β λ λ Λ λ Λ B n β λ λ Λ B n λ Λ β λ
9 Clase 02-14/03/2013 Sea Ω. Notemos que siempre podemos definir en el las σ-algebras: a) N = {, Ω} σ-algebra trivial b) P(Ω) σ-algebra discreta Demostracion: Ambos cumplen trivialmente con 0, 1 y 2. Veamos 3: a) Sea (B n : n N). Si B n = n N B n = N Si n N tal que B n = Ω B n = Ω N Como esos son los unicos casos Posibles, entonces es verdad b) (B n : n N) P(Ω) B n P(Ω) Nota N P(Ω), excepto cuando Ω = {α}, en cuyo caso N = P(Ω) = {, {α}} Proposicion Sea Ω y sea Γ P(Ω). Entonces,! σ-algebra que notaremos σ(γ) y que llamaremos σ-algebra generada por Γ, que verifica las siguientes propiedades: a) σ(γ) es σ-algebra. b) Γ σ(γ) c) Si Γ β y β es σ-algebra, entonces σ(γ) β Nota σ(γ) es la σ-algebra mas pequeña que contiene a Γ. Demostracion Definamos Λ = {β : β es σ-algebra y Γ β}. Se tiene P(Ω) Λ, luego Λ. Por propiedad anterior, β es σ-algebra β Λ Como Γ β β Λ Γ β Por ultimo, si Γ β y β es σ-algebra, entonces β Λ. Luego β β 5 β Λ β Λ
10 6 ÍNDICE GENERAL Hemos probado que σ(γ) = β verifica (a, b, c). Ademas, es la unica σ-algebra que lo hace, β Λ pues si β tambien lo verificase, deduciriamos de (c) que β σ(γ) y que σ(γ) β, concluyendo que β = σ(γ). Nota Si Ω es numerable (finito o de cardinalidad de N), entonces siempre consideraremos en Ω la σ-algebra discreta P(Ω). Observemos que en este caso Ω numerable se tiene En efecto, si B P(Ω), entonces: P(Ω) = σ(γ), con Γ = {{ω} : ω Ω} B = {w}, union numerable de conjuntos en Γ ω B Luego B σ(γ), de donde P(Ω) σ(γ) Nota Sea Ω, Γ = {{ω} : ω Ω} la familia de singletons. Entonces: σ(γ) = {B Ω : B es numerable o B c es numerable} DEMOSTRARLO Definicion σ-algebra de Borel: En Ω = R, la σ-algebra de Borel se define por β(r) = σ(γ), con Γ = {(, a] : a R} Propiedad a, b R, con a b se tiene que: (, a] [a, b] (, a) (a, b] cualquier union o interseccion [a, ) [a, b) numerable, complemento o (a, ) (a, b) diferencia de estos conjuntos {a} β(r) Demostracion Caso por caso 1) (, a) = (, a 1 ) n ( Como, a 1 ) Γ, n N, deducimos n (, a 1 ) σ(γ) = β(r) n 2) [a, ) = (, a) c. Como (, a) β(r), se deduce que (, a) c β(r) 3) [a, b) = (, b) [a, ). Como ambos estan en β(r), entonces [a, b) β(r) 4) a = [a, a] β(r) Nota B β(r) se llamara Boreliano Ademas, β(r) P(R) ( A R tal que A / β(r)) Definicion Analogamente, se tiene en Ω = R n la σ-algebra de Borel, definida β(r n ) = σ(γ), n con σ(γ) = { (, a i ) : a i,..., a n R}
11 ÍNDICE GENERAL 7 Nota Nota A los B R n tal que B β(r n ) se les llama Borelianos. n a i, b i R n β(r n ), a i, b i tal que a i b i. Definicion Definicion Diremos que (B n : n N) es familia disjunta si B i B j = i j, con i, j N Sea (Ω, β) espacio medible. P es una medida de probabilidad en (Ω, β) si verifica: a) P es funcion P : β [0, 1] B P(B) b) P(Ω) = 1 c) (B n : n N) β familia disjunta en β se tiene que P A esta ultima propiedad se le llama σ-aditividad. Propiedad Sea P medida de probabilidad. Entonces P( ) = 0. ( B n ) = P(B n ) Demostracion Tomemos ( B n = ) n N. Entonces (B n : n N) β son disjuntos. Luego, por σ-aditividad P B n = P(B n ). Como P( ). B n =, entonces P( ) = Luego, P( ) = o P( ) = 0. Y como P [0, 1], entonces P( ) = 0.
12 8 ÍNDICE GENERAL
13 Clase 03-19/03/2013 Una medida µ en (Ω, β) verifica: (0) µ : β R + { } (1) µ( ) = 0 (2) µ es σ-aditiva Se dira medida finita si µ(b), B β Se tiene que si µ es medida, entonces es una medida de probabilidad si y solo si µ(ω) = 1. Por otra parte, si µ es medida finita y µ(ω) 0, entonces P(B) = µ(b), B β es medida µ(ω) de probabilidad. Definicion! medida λ en (R, β(r)) llamada medida de Lebesgue que verifica: Se tiene λ(r) =, λ({a}) = 0, a R λ((a, b]) = b a, a b en R Definicion! medida λ n en (R n, β(r n )) llamada medida de Lebesgue que verifica: n n λ n ( (a i, b i )) = (b i a i ) Se tiene λ n (R n ) =, λ n ({x}) = 0, x R n Propiedades Sea (Ω, β, P)) espacio de probabilidad. P es una medidad de probabilidad en (Ω, β). Entonces: a) P es aditiva, es decir, si B 1,..., B n β son disjuntos, se tiene ( ) n n P B i = P(B i ) b) Si A, B β, A B, entonces P(B \ A) = P(B) P(A) c) Si A, B β, A B, entonces P(A) P(B) d) B β, P(B c ) = 1 P(B) e) P(A B) = P(A) + P(B) P(A B) 9
14 10 ÍNDICE GENERAL Nota Las propiedades a), b), c) y e) son comunes a todas las medidas. Demostracion a) Tomemos B i = i > n. Luego, (B i : i N) β son disjuntos, y por σ-aditividad: ( ) ( ) n P B i = P B i = P( )=0 {}}{ n P(B i ) = P(B i ) i N i N b) A B A B \ A = B A c, son conjuntos disjuntos y verifican B = A (B \ A). Luego por a) deducimos P(B) = P(A) + P(B \ A) c) Como P(B \ A) 0, por b) deducimos P(A) P(B) d) Resulta de tomar B Ω, luego por b), y ya que B c = Ω \ B: P(Ω \ B) = P(Ω) P(B) = 1 P(B) e) A B = A B B \ A A \ B = A B (B \ A B) (A \ A B). Luego: P(A B) a) = P(A B) + P(B \ A B) + P(A \ A B) b) = P(A B) + P(B) P(A B) + P(A) P(A B) = P(A) + P(B) P(A B) Fórmula de Inclusión-Exclusión Sea B 1,..., B n β. Entonces: ( n ) P B i = ( ) n ( 1) J +1 P B i = ( 1) k+1 J {1,...,n} J i J k=1 1 i 1<...<i k n P ( k B i ) Primero suma todos las probabilidades de conjuntos, luego le resta las intersecciones dobles, después le suma las intersecciones triples, le resta las cuádruples y así. Para el caso n = 2 obtenemos e). Para el caso n = 3 obtenemos: P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C) Demostración Por inducción, en auxiliar. Propiedades Sea (B n : n N) β. Entonces: (a) Si B n B n+1 n N (Se escribe B n y se dice B n creciente), se tiene ( ) P B n = lím P(B n) (Continua Monótona Creciente) (b) Si B n+1 B n n N (Se escribe B n y se dice B n decreciente), se tiene ( ) P B n = lím P(B n) (Continua Monótona Decreciente) ( ) (c) P es sub-σ-aditiva. Es decir, P B n P(B n )
15 ÍNDICE GENERAL 11 Demostración (a) Definamos (A n : n N) por A 1 = B 1 ; A n+1 = B n+1 \ B n, n N. Se tiene (A n : n N) β, además los A n son disjuntos [probarlo] y se verifica que: ( ) A n B n n N A n n ( ) B n = B n A i n N B n ( ) + ( ) = A n = B n. Luego: ( ) ( P B n = P = lím P ( n A n ) A n = ( n ) P(A n ) = lím P(A i ) A i ) = lím P(B n) (b) Se deduce de (a) y Morgan. En efecto, B n Bn c. Luego, por (a): ( ) P Bn c = lím (P(Bc n)) = lím (1 P(B n)). Además: (( ) c ) ( ) P B n = 1 P B n, Luego ( ) ( ) 1 P B n }{{} = lím (1 P(B n)) P B n = lím (P(B n)) Morgan ( n ) (c) Definamos (A n : n N) por A 1 = B 1 ; A n+1 = B n+1 \ B i n N Se tiene (A n : n N) β, son disjuntos y verifican: n A n B n B n = A i, n N. Luego, A n = B n y deducimos ( ) ( P B n = P A n ) = P(A n ) Por * y porque P es creciente Nota (c) implica la sub-aditividad: B 1,..., B n β, y tomando B i =, i > n, tenemos ( n ) n P P(B n ) {}}{ P(B n )
16 12 ÍNDICE GENERAL Corolario Sea (B n : n N) β ( ) (a) Si P(B n ) = 0 n N, entonces P B n = 0 ( ) (b) Si P(B n ) = 1 n N, entonces P B n = 1 Demostración Se demuestran: (a) por sub-σ-aditividad. (b) por (a) y Morgan.
17 Clase 04-21/03/2013 Definición Si lím inf B n = lím sup B n, se dice que lím B n = lím sup Si B n, se tiene que lím B n = B n Si B n, se tiene que lím B n = B n B n Propiedad Las ultimas propiedades (a) y (b), se pueden enunciar como: Sea (B n : n N) β. Si B n o B n, entonces: ( ) P lím B n = lím P(B n) Definicion y Propiedad Ω 0 Ω). Se tiene: Sea (Ω, β) un espacio medible. Sea Ω 0 β, Ω 0 (en particular β Ω0 = {B β : B Ω 0 } ( ) = {B Ω 0 : B β} (**)β Ω0 es σ-algebra (en Ω 0 ) y se llama σ-algebra inducida (o restringida) en Ω 0. La pareja (Ω 0, β Ω0 ) es espacio medible. Además, β Ω0 β. Demostración (*) es trivial (**) (1), Ω 0 β Ω0 evidentemente. (2) B β Ω0 Ω 0 \ B = Ω 0 B c nβ Ω0 (3) (B n : n N) β Ω0 B n β Ω0 Probabilidad Condicional Sea (Ω, β, P) un espacio de probabilidades, que vamos a usar de aquí en adelante. Definición P(A B) = Sean A, B β, con P(B) > 0. Definimos: P(A B) P(B) y lo llamamos probabilidad de A condicional a B. 13
18 14 ÍNDICE GENERAL Propiedades Obvias Sea P(B) > 0. Se tiene: (a) P(A B) = P(A B B) (b) P(A B) = P(A B) P(B) (c) Si P(A) > 0 P(A B) P(B) = P(B A) P(A) P(A B) = P(B A) P(B) P(A) Propiedad Sea P(B) > 0. Entonces P( B) : β B [0, 1] A P(A B) en (B, β B ), es decir, (B, β B, P( B)) es espacio de probabilidad. Demostración es una medida de probabilidad P( B) (a) P( B) = = 0 P(B) P(B B) (b) P(B B) = = 1 P(B) ( ) (c) Nos basta demostrar que (B n : n N) β se cumple P A n B = P(A n B) (pues β B β). En efecto: ( ) ( ) P A n B = 1 P(B) P A n B Propiedades Sea P(B) > 0: (a) P(B B) = 1 (b) P( B) = 0 (c) P(A B) = 0 P(A B) = 1 (d) P(A B c ) = 1 P(A B) = 0 (e) P(Ω B) = 1 (f) P(A) = 1 P(A B) = 1 (g) P(A) = 0 P(A B) = 0 (h) P(B) = 1 P(A B) = P(A), A β = 1 P(B) P(A n B) = P(A n B) Demostración PROPUESTOS. Puede ser útil, para (c), (d), (f) y (g), probar: Sea (Ω, β, P). Entonces, A β, se tiene: C β, P(A C) = 0 P(C) = P(A) Fórmula de Bayes Sea I un conjunto numerable (finito o no). Sea (A i : i I) β partición medible de Ω, es decir: (0) (Ai : i I) β (p 1 ) (A i : i I) disjuntos (p 2 ) Ω = i I A i
19 ÍNDICE GENERAL 15 Luego, intersectando, B β : B = i ), de donde P(B) = i I(B A P(B A i ). Si asumimos i I P(A i ) > 0 i I, tenemos que P(B) = P(B A i ) P(A i ). Si P(B) > 0, verificamos, j I: i I P(A j B) = P(B A j) P(A j ) P(B A i ) P(A i ) i I Conocida como la formula de Bayes Nota Lo anterior también es válido si (A i : i I) es una P-partición medible, es decir: (0) (A i : i I) β (p 1 ) P(A ( i A j ) = 0, i j (p 2 ) P Ω \ ) A i = 0 i I Proposición B 1,..., B n β, con P(B i ) > 0 i = 1,..., n, se tiene que: ( n ) n i 1 P B i = P B i j=1 B j = P(B n B n 1... B 1 )... P(B 2 B 1 ) P(B 1 ) Demostración P(B 1... B n ) = P(B n B 1... B n 1 ) P(B n 1... B 1 ) = P(B n B 1... B n 1 ) P(B n 1 B 1... B n 2 ) P(B n 2... B 1 ) = = P(B n B 1... B n 1 )... P(B 2 B 1 ) P(B 1 ) Nota En la primera igualdad, cuando i = 1, P(B 1 Ω) = P(B 1 ). i 1 j=1 0 B j = Ω, por lo que P B 1 j=1 B j =
20 16 ÍNDICE GENERAL
21 Clase 05-26/03/2013 Independencia Definición A, B β se dicen (P-)independientes (notado )si P(A B) = P(A) P(B) Propiedades (a) P(A) = 0 o 1 A es independiente en todo B β (b) Si P(A), P(B) > 0, entonces A B P(A B) = P(A) P(B A) = P(B) (c) Si P(A), P(B) (0, 1), entonces, A B = A B (d) A A P(A) = 0 o 1 Demostración (a) Si P(A) = 0 P(A B) = 0 A B Si P(A) = 1 P(B) = P(B A) + P(B A c ) = P(B A) A B (b) Por definición (c) P(A B) = 0 P(A) P(B) (d) P(A) = P(A A) = P(A) 2 P(A) = 0 P(A) = 1 Proposición A B A B c A c B c A c B c Demostración Basta probar A B A B c. En efecto: P(A B c ) = P(A \ A B) = P(A) P(A B) = P(A) P(A) P(B) = P(A)(1 P(B)) = P(A) P(B c ) Definición Sea n 2. Sean B 1,..., B n β. B 1,..., B n se dicen independientes si: ( n ) n P A i = P(A i ), A i = B i o A i = Bi c, i = 1,..., n Proposición Sean B 1,..., B n β. Se tiene: ( ) (a) B 1,..., B n son independientes sí y solo sí J {1,..., n} P B i = P(B i ) i J (b) Si B 1,..., B n son, entonces B i1,..., B 1k son independientes, 1 i 1 <... < i k n 17 i J
22 18 ÍNDICE GENERAL Demostración... Definición (B n : n N) β es una familia de eventos independientes si J finito, J N se tiene (B i : i J) independiente. Se cumple (B n : n N) β es familia independiente si n N, B 1,..., B n independiente. Observación Sea (Ω, β, P) espacio de probabilidad. Sean a 1, a 2 β σ-álgebras incluidas en β (se llaman sub-σ-álgebras). Ellas se dicen independientes sí y solo sí A 1 a 1, A 2 a 2, se tiene P(A 1 A 2 ) = P(A 1 ) P(A 2 ) Se tiene que A, B β son independientes sí y solo sí σ(a) y σ(b) son independientes, donde σ(a) y σ(b) son las σ-álgebras generadas por A y B respectivamente. En efecto es cierto, ya que σ(a) = {, A, A c, Ω} y σ(b) = {, B, B c, Ω}. Caso Discreto Combinatorio Si Ω es numerable (finito o infinito), lo dotamos de la σ-lgebra β = P(Ω). En este caso, una medida de probabilidad en (Ω, β) esta determinada por una función, llamada densidad de probabilidad discreta p : Ω R + ω p(ω) que verifica: (i) (ii) p(ω) 0 ω Ω p(ω) = 1 ω Ω Nota En particular p(ω) [0, 1] ω Ω En efecto, si P es una medida de probabilidad en (Ω, β), entonces p(ω) = P({ω}), ω Ω verifica (i) y (ii), ya que 1 = P(Ω) = P ( ω Ω {ω} ) = ω Ω P({ω}) Recíprocamente, si p verifica (i) y (ii) entonces P : β [0, 1] definida por P(B) = ω B p(ω), B β = P(Ω) tambien lo cumple. Observemos que P({ω}) = p(ω). Además, P así definido es una función de β [0, 1], pues 0 P(B) ω Ω p(ω) = 1. Por otra parte, P(Ω) = 1, y además si (B n : n N) P(Ω) disjuntos se verifica que P ( ) B n = ( ) p(ω) = p(ω) = P(B n ) ω B n ω B n por lo que la σ-aditividad se cumple.
23 ÍNDICE GENERAL 19 Caso Ω finito Por lo dicho, una medida de probabilidad en (Ω, β) está dada por p : Ω R +. La medida de probabilidad llamada equiprobable en Ω es tal que p(ω) = 1 Ω, ω Ω También se le llama uniforme (en Ω). Es la única medida de probabilidad en (Ω, β) en que a cada punto de Ω se le da el mismo peso. En este caso se tiene la igualdad P(B) = p(ω) = B, es decir, un caso equiprobable. Ω ω B B Ω : P(B) = B Casos favorables : Ω Casos posibles
24 20 ÍNDICE GENERAL
25 Clase 06-28/03/2013 Combinatoria Recordemos algunas igualdades de cardinalidad. Notaremos por I n un conjunto de n elementos, I n = n. Para todo efecto de cardinalidad podemos suponer I n = {1,..., n}, (I 0 =, I 0 = 0) Se tiene: k k k I nl = I nl = n l l=1 l=1 Luego In k = n k. Esta igualdad se puede escribir como F(I k, I n ) = n k, donde F(I k, I n ) = {f : I k I n }. En efecto F(I k, I n ) In k es una biyección. f (f(i) : i I k ) Sea I(I k, I n ) = {f : I k I n, f inyectiva}. Se tiene I(I k, I n ) solo en el caso k n. Supongamos k n. Se tiene I(I k, I n ) = l=1 n! = n(n 1) (n k + 1) (n k)! I(I k, I n ) esta en biyección con {(x 1,..., x k ) I k n : x i x j, i j} Demostración I(I k, I n ) f k 1 l=0 I n l (f(1),..., f(k)) Si f es inyectiva, f(1) I n, f(2) I n \ {f 1 },..., f(k) I n \ {f(1),..., f(k 1)}. Luego k 1 k 1 I(I k, I n ) = I n l = (n l) = n(n 1) (n k + 1) l=0 l=0 En particular, para k = n, I(I k, I n ) = P er(i n ), conjunto de biyecciones de I n I n cuyos elementos partición se llaman permutaciones de I n. Se cumple que P er(i n ) = n! Sea k n. Consideremos P k (n) = {B : B I n, B = k}, subconjuntos de I n con k elementos. Se tiene: ( ) n n! P k (n) = = k (n k)! k!, k n 21
26 22 ÍNDICE GENERAL Demostración En I(I k, I n ) definamos la relación de equivalencia: f g {f(i) : i I k } = {g(i) : i I k } f(i k ) = g(i k ) : los conjuntos imagen son los mismos Sea I(I k, I n )/ el conjunto de clases de equivalencia. Se tiene i : P k (n) I(I k, I n )/ B i(b) = {f I(I k, I n ) : f(i k ) = B} i está bien definido, pues B = k = f(i k ) f I(I k, I n ). Además, i es claramente biyección. Luego: n! P k (n) = I(I k, I n )/ = (n k)! k! pues f I(I k, I n ), Clase de equivalencia de f = P er(f(1),..., f(k)) = k! Definición Sea I n. Sean n 1,..., n k 0 tal que k = n. Definimos P art(n 1,..., n k ) = {(B 1,..., B k ) : conjunto de particiones de I n en k conjuntos B 1,..., B k tal que B i = n 1, i = 1,..., k} Notemos que si k = 2 se tiene n 2 = n n 1, luego P art(n 1, n n 1 ) P n1 (n) es una biyección, pues todo B P n1 (n) determina únicamente (B, B c ) P art(n 1, n n 1 ). Se tiene: k 2 ( )( ) n n n1 P art(n 1,..., n k ) = n k 1 n l n n l Hipergeométrica = = n 1 n 2 i 1 k n n! n 1! n k! l=1 n i n l = l=1 n k 1 l=1 n k ( i 1 n n k l )! l=1 ( i n i! n n l )! Hay una urna con n bolas, de las cuales n 1 son rojas y n 2 = n n 1 son negras. Sea 1 k 1 k n. Se saca al azar k bolas. Cual es la probabilidad de que se hayan sacado exactamente k 1 bolas rojas? (Con k 2 = k k 1 bolas negras) l=1
27 Clase 07-02/04/2013 Revisitemos la Hipergeomeométrica. I n = J J c I n = representa urna con n bolitas J = conjunto de bolas rojas J = n 1 J c = conjunto de bolas negras J c = n 2 = n n 1 El experimento consiste en sacar al azar un conjunto de k bolitas. Nos preguntamos por la probabilidad de que este conjunto contuviera k 1 bolitas rojas y luego k 2 = k k 1 bolitas negras, donde 0 k 1 k n. Tomemos: Ω = P k (n) = {ω : ω I n, ω = k} El conjunto al azar, es un conjunto ω Ω que se escoje de manera equiprobable en Ω, es decir, P({ω}) = 1 Ω = 1 P k (n) = ( 1 ), ω Ω n k Nos interesa calcular P(A), en donde: Con lo que P(A) = ω A A = {ω Ω : ω J = k 1, ω J c = k k 1 } = {ω Ω : ω J = k 1 } Ya que ω = k, ω Ω P({ω}) = A Ω = ( A ) n k Además A : A P k1 (n 1 ) P(k 2 )(n 2 ) ω ω J ω J c que es claramente un biyección, por lo que concluimos que: ( )( ) ( )( ) n n n1 n n1 Que es tambien: P(A k ) = k 1 k 2 ( ) = n k k 1 ( )( ) k n k k k ( ) 2 n k P(A k ) = k 1 n k ( ) 1 n En donde I n = J J c ; Ω = P k (n) = {ω I n : ω = k}; A k = {ω Ω : ω J = k} es cambiada a I n = K K c ; Ω = Pn1 (n) = {ω I n : ω = n 1 }; Ã k1 = { ω Ω : ω K = k} 23 n 1
28 24 ÍNDICE GENERAL Generalización de la Hipergeométrica Sea una urna I n con n bolas, I n esta particionado en bolas de r colores distintos. r r I n = J l, J l =bolas de color l. Notamos que J l = n l, luego n = l=1 Se saca al azar un conjunto de k bolas. Cuál es la probabilidad de que obtenga k 1 bolas de r J 1,..., k r bolas de J r? Notar que k = l=1 Ω = P k (n) = {ω : ω I n, ω = k}; P({ω}) = 1 Ω = ( 1 ) n k A kl = {ω Ω : ω J l = k l }, l = 1,..., r Se tiene que A k1...k r P k1 (J 1 ) P kr (J r ) es biyección, luego: ω (ω J 1,..., ω J r ) ( ) ( ) n1 nr r ( ) nl A k1,...,k r = = k l k 1 k r r l=1 ( nl ) k l l=1 n l Luego, la probabilidad buscada es: P(A k1,...,k r ) = lo que habiamos hecho antes. l=1 k l ( ) Notemos que si n = 2 es igual a n k Observemos que lo hecho anteriormente, es decir, sacar el conjunto ω Ω = P k (n) de manera equiprobable, es enteramente equivalente a: sacar una bola al azar de I n, llamada v 1, sacar una segunda bola al azar de I n \ {v 1 } y así hasta sacar una k-ésima vola al azar de I n \ {v 1,..., v k 1 }. El conjunto ω = {v 1,..., v k } así escogido, es un conjunto de k elementos elegidos al azar, es decir, de manera equiprobable en P k (n). Este experimento es sacar las bolas de I n sin repetición y sin reposición. En el caso con reposicion: Se sacan k bolas de manera independiente desde I n, cada una de ellas escogida de manera equiprobable. Sea x 1,..., x k las bolas así escogidas de I n. Es decir, x p I n. En este caso {x 1,..., x k } k, pues puede haber repetición. Así, se tiene Ω = I k n y P(x 1,..., x k ) = 1 I n k = 1 n k
29 Clase 08-04/04/2013 Variables Aleatorias Sea (Ω, β, P) espacio de probabilidad que consideraremos fijo. Definición La función X : Ω R se dice variable aleatoria si C β(r), X 1 (C) β, es decir, {ω Ω : X(ω) C} β, C β(r) Es facil mostrar que X : Ω R es variable aleatoria si y solo si a R, X 1 ((, a]) β, es decir, si y solo si a R, {ω Ω : X(ω) a} β. Propiedades (i) La función constante X a : Ω R definida por X a (ω) = a, ω Ω es v. a. (ii) Sea B β, la función indicadora 1 B : Ω R ω 1 B (ω) = { 1 si ω B 0 si ω / B Más aún, para B Ω se tiene que 1 B es una v. a. si y solo si B β (iii) Si X es v. a. y α R, entonces αx es v. a. (iv) Si X, Y son v. a., entonces X + Y es v.a. (v) Si X, Y son v. a., entonces X Y es v. a. (vi) Si X, Y son v. a., Y 0, entonces X es v. a. Y (vii) Si X, Y son v. a., entonces máx(x, Y ) y mín(x, Y ) son v. a. (viii) Si (X n : n N) es familia de v. a. tal que lím X n, entonces es v. a. lím X n es v. a. Nota Por (iii) y (iv), el conjunto de v. a. es espacio vectorial; por (iii), (iv) y (v) el conjunto de v. a. es un álgebra conmutativa; por (vii) el conjunto de v. a. es un reticulado (cerrado para el máximo y el mínimo); por (i), (iii), (iv) y (v) el conjunto de v. a. es un álgebra conmutativa unitaria, pues la funcion constante 1 : Ω R es el neutro de la multiplicación. ω 1(ω) = 1 Demostración Solo la de (ii) y la de (i) por mientras: (ii) Sea B β y 1 B : Ω R { 1 si ω B ω 1 B (ω) = 0 si ω / B 25
30 26 ÍNDICE GENERAL Para probar que 1 B es v. a. debemos probar que C β(r), 1 1 B (C) β. Se tiene que 1 1 B (C) = {ω Ω : 1 B(Ω) β}, asi que, por casos: Caso 1: Si {0, 1} C por definición 1 1 B (C) = Ω β Caso 2: Si 1 C, 0 / C por definición 1 1 B (C) = B β Caso 3: Si 0 C, 1 / C por definición 1 1 B (C) = Bc β Caso 4: Si {0, 1} / C por definición 1 1 B (C) = β Como son los unicos casos posibles, concluimos que 1 1 B (C) β, C β(r), luego 1 B es v. a. La segunda parte de (ii), resulta de lo hecho previamente (la parte si ) y de (*?) tomando C = {1} P(R), para la parte solo si. (i) Notemos que si a = 1, X = 1 Ω, luego ese caso se deduce de (ii). En general la función X a = a es v. a. pues: { Xa 1 Ω si a C (C) = si a / C Y como Ω, β, se deduce el resultado.
31 Clase 09-09/04/2013 Demostración (Continuación) (iii) Sea X v. a. y α R. Digamos α 0. Para C β(r) debemos mostrar que (αx) 1 (C) β. Se tiene (αx) 1 (C) = {ω Ω : αx(ω) C} = {ω Ω : X(ω) 1 α C} = X 1 ( 1 C), en donde α 1 α C = {y R : αy C} β(r). Luego, como X es v. a., X 1 ( 1 C) β. α (vi) Sean X, Y v. a. Por demostrar que Z = máx(x, Y ) es v. a. Para esto, basta probar que Z 1 ((, a]) β a R Z 1 ((, a]) = {ω Ω : Z(ω) a} = {ω Ω : máx(x(ω), Y (ω)) a} Corolario X a) Sean X, Y v. a. Entonces, Y es v. a. {Y 0} b) Sea (X n : n N) sucesión de v. a. Entonces ( lím X n) = {ω Ω : X(ω) a Y (ω) a} = {ω Ω : X(ω) a} {ω Ω : Y (ω) a} = X 1 ((, a]) Y 1 ((, a]) β { lím Xn} es v. a. Observación Y (ω) = 0 X = 0 por definición. Y es 1 si lím X { lím Xn} n y 0 en caso contrario. Notación Escribiremos {X C} = {ω Ω : X(ω) C}. Así mismo, escribiremos su notación análoga {X 1 C 1,..., X n C n } = {ω Ω : X 1 (ω) C 1,..., X n (ω) C n } También { lím X n} = {ω Ω : lím X n} Observación Lo que hemos hecho hasta ahora en R tambien se puede hacer en R = R {, }, llamado R extendido. β(r) = σ(j), con J = {[, a], [a, ], (, a], [a, )} Todas las propiedades son análogas cuando estan bien definidas: Definidas: { 0 = 0 0 = 0 No definidas: { (±) ± (±) (±) 27
32 28 ÍNDICE GENERAL Propiedad Sean (X n : n 1) v. a. tal que n N X n : Ω R (o R). Entonces lím inf X n y lím inf X n son v. a., lím inf y lím sup van de Ω a R Nota lím sup X n (ω) lím inf X n(ω) = sup. ínf. de la acumulación de {X n (ω) : n N}. Definición h : R R o R R se dice boreliano si C β(r) : h 1 (C) β(r), con h 1 (C) = {x R : h(x) C}. Se prueba que esta propiedad es equivalente a: a R, h 1 ((, a]) = {x R : h(x) a} β(r) Nota Todas las funciones continuas o con un conjunto aislado numerable de discontinuidades son funciones borelianas. Si C β(r), la indicadora 1 C es boreliana. El conjunto de funciones borelianas tiene las propiedades ya descritas de v. a. (espacio vectorial, reticulado, álgebra unitaria). Propiedad Sea X : ω R y h : R R boreliano, entonces h X : Ω R es v. a. Demostración Sea C R. Entonces (h X) 1 (C) = X 1 (h 1 (C)) β Definición y Propiedad Sea X : Ω R una v. a., entonces P X : β(r) [0, 1] es C P(X 1 (C)) una medida de probabilidad en (R, β(r)) que se llama probabilidad inducida por X o ley de X. Demostración (0) P X esta bien definida en β(r) pues X es v. a. Luego C β(r), X 1 (C) β, luego P(X 1 (C)) [0, 1] (1) P X (R) = P(X 1 (C)) = P(Ω) = 1 (2) Sean (C n : n N) β(r) familia disjunta de borelianos. Entonces: ( ) ( ( ) P X C n = P(X 1 C n )) = P (X 1 C n ) = P(X 1 (C n )) = P X (C n ) Observación Notemos que para X i : Ω R v. a. i = 1,..., n se tiene: C 1,..., C n β(r), {ω Ω : X i (ω) C i, i = 1,..., n} β n n {X i C i i = 1,..., n} = {X i C i } = X 1 (C i ) β
33 ÍNDICE GENERAL 29 Definición Las v. a. X 1,..., X n se dicen (P-)independientes si: P({X i C i, i = 1,..., n}) = ( n ) Esto es: P {X i C i } = = n P(X i C i ), C 1,..., C n β(r) n P(X i C i ) n P Xi (C i ) Propiedad Para X v. a., σ(x) = {X 1 (C) : C β(r)} es una σ-álgebra contenida en β. Se tiene que X 1,..., X n son independientes si y solo si las σ-algebras σ(x 1 ),..., σ(x n ) son independientes entre si (en (Ω, β, P)) Demostración Ejercicio.
34 30 ÍNDICE GENERAL
35 Clase 10-16/04/2013 Variables Aleatorias Discretas Definición X : Ω R v. a. se dice discreta si la imagen X(Ω) es un conjunto que notamos I = X(Ω), tal que I R numerable. Equivalentemente lo podriamos definir como X : Ω I v. a. tal que I es conjunto numerable; esto ocurre si y solo si X 1 ({a}) = {ω Ω : X(ω) = a} β, a I Admitimos la generalización siguiente: X : Ω R v. a. d. si I R numerable tal que P(X I) = 1 Definición Sea X : Ω I v. a. d. Definimos su función de densidad discreta por: P X (a) = P(X = a), a I La función de densidad se extiende a R si P X (x) = 0, x / I. Como P(X I) = 1, se tiene que: P X (a) 0 a I P X (a) = 1 Observación Si X i : Ω I i, i = 1,..., n son v. a. d., siempre podemos suponer X i : Ω I, n i = 1,..., n, tomando I = I i. Analogamente si X i : Ω I i es v. a. d para i N, lo podemos hacer si tomamos I = I i. i N Propiedad Sean X i : Ω I, i = 1,..., n v. a. d., entonces ellas son independientes si y solo si ( n ) n P {X i = a i } = P(X i = a i ) En efecto, esto implica ( n ) P {X i C i } = n P(X i C i ) C i I, i = 1,..., n Y por otra parte esto implica que se cumple C i P(R), pues ( n ) ( n ) P {X i C i } = P {X i (C i I)} ya que ( n ) P {X i (C i I c )} = 0 31
36 32 ÍNDICE GENERAL Clases de Variables Aleatorias Discretas 1 ra Clase - Constante Sea a 0 R. X a0 : Ω R es v. a. d. con I = {a 0 }. En este caso ω X(ω) = a 0 { 1 Si a = a0 P Xa0 (a) = δ a,a0 = Se dice X a0 v. a. constante a 0. 0 Si a a 0 2 da Clase - Bernoulli(p) Sea p [0, 1], X : Ω R es v. a. Bernoulli(p) si P(X {0, 1}) = 1 tal que P(X = 0) = 1 p P(X = 1) = p Nota Si p = 0 o p = 1, es igual a la v. a. constante X 0 o X 1 respectivamente. Observación Sean a, b R, a b. Si P(Y = a) = 1 p, entonces X = Y a es Bernoulli(p). b a P(Y = b) = p Dicho de otro modo, si X es Bernoulli(p), entonces Y = a + bx es tal que P(Y = a) = 1 p. P(Y = b) = p 3 ra Clase - Binomial(n, p) Sea n 1, p [0, 1]. X : Ω R v. a. d. se dice Binomial(n, p) si P(X {0,..., n}) = 1 y ( ) n P X (k) = P(X = k) = p k (1 p) n k, k {0,..., n} k Nota En lo anterior 0 k = 0 si k > 0, 0 0 = 1. Observemos que n n ( ) n P X (k) = p k (1 p) n k = (p + (1 p)) n = 1 k k=0 k=0 Propiedades Sean X 1,..., X n v. a. Bernoulli(p) independientes. Entonces Y = ( ) n Binomial(n, p), es decir, P(Y = k) = p k (1 p) n k, k = 0,..., n k n i=0 X i es Nota Binomial se puede ver como el numero k de caras que aparecen en n lanzamientos. Demostración ( n ) P(Y = k) = P X i = k = P( {i {1,..., n} : X i = 1} = k) ( ) = P {{i I n : X i = 1} = J} = P(X i = 1, i J; X i = 0, i J k ) J I n J =k J I n J =k J I n J =k = ( P(X = 1))( P(X = 0)) = i J i J 0 J I n J =k p J (1 p) n J = }{{} ( n k {J I n: J =k} =( n k) ) p k (1 p) n k
37 ÍNDICE GENERAL 33 Relación entre Bernoulli(p) y la Indicadora Sea X v. a. Bernoulli(p). Entonces, X(ω) {0, 1} ω Ω, de donde X = 1 B con B = {ω Ω : X(ω) = 1}. En efecto, { 1 Si ω B X(ω) = 1 X(ω) = 1 B (ω) = 0 Si ω / B X(ω) = 0 Se tiene P(B) = p, pues P(B) = P(X = 1) = p X Bernoulli(p) es indicadora. Notemos que X = 1 B = 1 {X=1} Observación Si X i v. a. Bernoulli(p) i = 1,..., n, ellas son independientes si y solo si (B i : i = 1,..., n) son independientes, ya que B i = 1 {X}, i = 1,..., n Definición La sucesión de v. a. X m : Ω R, n N son independientes si y solo si N N : X 1,..., X N son independientes. Es decir, una familia de v. a. es independiente si y solo si toda subfamilia finita de ellas es independiente. 4 ta Clase - Geométrica(p) Sea p [0, 1]. La v. a. Z : Ω R se dice Geométrica(p) si P(Z N) = 1 y P Z (k) = P(Z = k) = (1 p) k 1 p, k N Nota En lo anterior 0 k = 0 si k > 0, 0 0 = 1. Observemos que P Z (k) = (1 p) k 1 1 p = p 1 (1 p) = 1 k N k 1 Propiedad Sea (X i : i = 1 N) una familia independiente de v. a. Bernoulli(p). Entonces, Y = ínf({i N : X i = 1}) es Geométrica(p), es decir: P(Y = k) = (1 p) k 1 p, k N Demostración P(Y = k) = P(ínf({i N : X i = 1}) = k) = P(X i = 0 i < k; X k = 1) k 1 = P(X i = 0)P(X k = 1) = (1 p) k 1 p Nota P(Y = N) = 1, pues Y N { }, pero P(Y = ) = 0. Observemos que Y = X i = 0 i N, por lo que P(Y = ) = P(X i = 0 i N) = i N(1 p) = 0 Observación Si Z Geométrica(p) W = Z 1 es Geométrica(p) en {0, 1,...}. Se tiene que P(W {0, 1,...}) = 1 P W (k) = P(W = k) = P(Z 1 = k) = P(Z = k + 1) = (1 p) (k+1) 1 p = (1 p) k p, k 0 5 ta Clase - Poisson(λ) Sea λ > 0 R. La v. a. X se dice Poisson(λ) si P(X Z + ) = 1 y P X (k) = P(X = k) = λk k! e λ, k 0
38 34 ÍNDICE GENERAL Comprobemos Se tiene P(X Z + ) = P X (k) = λk k! e λ = e λ e λ = 1 k Z + k Z + Propiedad Sea X Poisson(λ), entonces si Y n es Binomial(n, p(n)) y np(n) }{{} λ P(X = k) = lím P(Y n = k) x Se puede interpretar como el numero de llamadas recibidas en una unidad de tiempo con una escala λ
39 Clase 11-18/04/2013 Función de Distribución Tratemos el caso general de v. a. de X R. Vamos a describir P X (que la llamaremos ley de X) como P X (C) = P(X 1 C) = P(X C) Cuando C = (, ] se tiene P X ((, x]) = P(X x), x R Vemos que esto ultimo caracteriza la ley de X. A continuacion definiremos y consideraremos generales: Definicion F : R [0, 1] se dice funcion de distribucion si verifica: (0) F : R [0, 1] es funcion (1) F creciente, es decir, x y F (x) F (y) (2) F continua a la derecha, es decir, F (x + ) = F (x), donde F (x + ) = lím F (x+h) (3) F (0) = 1 h 0 + (4) F ( ) = 0, donde F ( ) = lím F (x) x Observaciones Siempre existe F (x ) = lím F (x h) x R h 0 + x es punto de continuidad si F (x ) = F (x + ) = F (x) x es punto de discontinuidad si F (x ) F (x + ) (Obviamente se tiene F (x ) F (x + )) Notamos D F = {x : F (x ) F (x + )} el conjunto de discontinuidades de F Teorema a) Si P es una medida de probabilidad en (R, β(r)), entonces F (x) := P((, x]), x R define una función de distribución. b) Si F : R [0, 1] es función de distribución, entonces!p medida de probabilidad en (R, β(r)) tal que F (x) = P((, x]) Demostración Solo demostraremos a). Sea P medida de probabilidad en (R, β(r)). Debemos demostrar que F (x) = P((, x]), x R verifica (0) a (4) para ser distribucion. (0) Como (, x] β(r), P((, x]) esta bien definido y como P es medida de probabilidad P((, x]) [0, 1] (1) x y (, x] (, y) }{{} P creciente P((, x]) P((, y]) F (x) F (y) (2) F (x + ) = F (x) equivale a: h n > 0, h n 0 se tiene lím F (X + h n) = F (x). Entonces, sea h n que cumple con lo pedido. Se tiene (, x + h n ] decreciente y (, x] = (, x + h n ]. Por continuidad monotona de P: P((, x]) = F (x) = lím P(, x + h n] = F (x + ) 35
40 36 ÍNDICE GENERAL (3) Si x n, se tiene (, x n ) creciente y R = (, x n ). Por continuidad monotona ( ) P(R) = P (, x n ) lím F (x) = 1 (4) Si x n, (, x n ] es decreciente y = (, x n ], por lo que P( ) = lím P((, x n]) lím F (x n) = 0 Propiedades Para F (x) = P((, x]), se tiene: (a) P((, x)) = F (x ), x R (b) P({x}) = F (x) F (x ) (c) P((a, b]) = F (b) F (a) (d) P((a, b)) = F (b ) F (a) (e) P([a, b]) = F (b) F (a ) (f) P([a, b)) = F (b ) F (a ) (g) P([a, )) = 1 F (a ) (h) P((a, )) = 1 F (a) Demostración Con (a) se obtienen todas las demas, asi que demostramos solo esa: (a) Consideramos h n > 0, h n 0. Se tiene F (x ) = lím F (x h n) = lím P((, x h n))
41 Clase 12-23/04/2013 Nota Observemos que si F (a ) = 0, entonces P([a, )) = 1, luego P(C) = P(C [a, )), C β(r). Si la (función de) distribución F tiene densidad f, entonces f(z) = 0, z (, a) y luego P(C) = f(z) dz C [a, ) Observación Sea F (función de) distribución con (función de) densidad f. Notemos que f puede ser alterado o redefinido en un conjunto finito o numerable de punto sin que F o P sean modificados. Más generalmente, f puede modificarse en un conjunto A tal que λ(a) = 0 sin que F o P sean modificados. Aqui λ : β(r) [0, ) es la medida de Lebesgue. Variables Aleatorias Absolutamente Continuas Sea X : Ω R v. a. La medida de probabilidad P X : β(r) [0, 1] llamada ley de X caracterizada por la función de distribucion de X= F X : R [0, 1] x F X (x) = P X ((, x)) = P(X x) Se tiene D FX = {x R : F X (x) F X (x )} = {x R : P X ({x}) 0} = {x R : P(X = x) 0} conjunto numerable. Si P X (D FX ) = 1 se tiene que X es v. a. discreta, pues toma valores en el conjunto numerable D FX. Si P X (D FX ) = 0, se tiene P(X = x) = 0 x R, o equivalentemente F X (x) = F X (x ) x R, es decir F X es continua. Definición X es v. a. absolutamente continua si su función de distribución F X es absolutamente continua, es decir si: f X (x) = d(f X(x)), x R llamada densidad de X y que verifica: dx f X 0 y f X (z) dz = 1. Luego, C β(r) se tiene P X (C) = P(X C) = f X (z) dz Por lo dicho anteriormente, f X esta definida salvo en un conjunto que tenga medida de Lebesgue 0. Escribiremos X F X o X f X para decir respectivamente que X tiene distribucion F X o densidad f X. 37 C
42 38 ÍNDICE GENERAL Familias de Variables Aleatorias Absolutamente Continuas 1 ra Familia - Uniforme Definición Sea a < b. La variable aleatoria X se dice uniforme [a, b] si es abs. continua con densidad f X (z) = 1 0 si z < a b a 1 z a [a,b](z) y función de distribución asociada F X (z) = si z [a, b] b a 1 si z > b Además P X (C) = P X (C [a, b]) = 1 = λ(c [a, b]), λ medida de Lebesgue. b a Para definir la uniforme podemos utilizar 1 a,b en vez de 1 [a,b], pues f X se puede modificar en un número finito de puntos. Propiedad En efecto: Sea U v. a. uniforme [0, 1). Entonces, la v. a. X = a + (b a)u es uniforme [a, b]. ( F X (x) = P(X x) = P(a + (b a)u x) = P U x a ) = b a 2 da Familia - Exponencial (λ) 0 si x < a x a si x [a, b] b a 1 si x > b Sea λ > 0. La v. a. X se dice Exponencial (λ) si es abs. continua con densidad f X (z) = λe λz 1 (0, ) (z). A λ se le llama tasa. Es claro que Su función de distribución es F X (x) = P(X > x) = e λx, x > 0 f X (z) dz = { 1 e λx si x > 0 0 f X (z) dz = e λz = 1. 0 si x 0. Luego, F X(x) = 1 F X (x) = 0 Nota Si Y Geometrica(p), P(Y > n) = k>n(1 p) k 1 = (1 p) n = e θn, con θ = log(1 p) si p (0, 1) Luego, la Exponencial es la versión continua de la Geométrica. 3 ra Familia - Gamma (α) Sea α > 0. Recordemos que Γ(α) = para n N. 0 e x x a 1 dx esta en (0, ) y se verifica Γ(n) = (n 1)!, La v. a. X se dice Gamma(α) si es abs. continua con densidad f X (z) = e z z α 1 1 (0, ) (z) Γ(α) g(z) Nota General Si g(x) 0 y 0 < g(x) dx <, entonces f(z) = g(x) dx densidad (es decir, es la normalización de g) es función de
43 ÍNDICE GENERAL 39 4 ta Familia - Normal o Gaussiana Sea µ R y σ > 0. La v. a. X se dice N(µ, σ 2 ) si es absolutamente continua con densidad f X (z) = 1 σ 2π e 1 z µ 2 ( σ ) 2, z R. Es claro que f X 0. Probemos que Demostración Tomando y = z µ σ 1 2π debemos mostrar que e y2 2 dy = 1, equivalente a e y2 π 2 dy = 2 0 f X (z) dz = 1. Haciendo el cambio x = y 2 queda 0 e x2 dx = π 2 equivalente a Luego, haciendo el cambio a coordenadas polares: π r e r2 dθ dr = π 4 e (x2 +y 2) dx dy = π Que es fácil ver que se cumple. Propiedad Sea X N(0, 1). Entonces Y = µ + σx N(µ, σ 2 ). Demostración Sea Y = µ + σx. Se tiene F Y (z) = P(Y y) = P(µ + σx y) = P(X y µ σ ) = F X( y µ σ ) Luego Y es abs. continua con densidad f Y (z) = d(f Y (z)) dz (y) = d(fx( y µ σ )) = 1 dy σ f X( y µ σ ) = 1 σ 2π e 1 z µ 2 ( σ ) 2 N(µ, σ 2 )
44 40 ÍNDICE GENERAL
45 Clase 13-25/04/2013 Independencia Propiedad Si X 1,..., X n son v. a. independientes y h i : R R, i = 1,..., n son funciones borelianas, entonces las v. a. h 1 (X 1 ),..., h n (X n ) son independientes. Demostración De donde {h i (X i )C i } = {X i h 1 i (C i )}, C i β(r) por ser boreliano. P(h i (X i ) C i, i = 1,..., n) = P(X i h 1 i (C i ), i = 1,..., n) n n = P(X i h 1 i (C i )) = P(h i (X i ) C i ) Propiedad Es facil ver que las v. a. son independientes si y solo si n P(X i a i, i = 1,..., n) = P(X i a i ), a 1,..., a n R = n F Xi (a i ) que llama- Nota En lo que sigue notaremos: F X1,...,X n : R [0, 1] (a 1,..., a n ) F X1,...,X n (a 1,..., a n ) remos función de distribución conjunta de las v. a. X 1,..., X n. Ella verifica: (0) F X1,...,X n es función (1) F X1,...,X n es creciente: x i y i i = 1,..., n F X1,...,X n (x 1,..., x n ) F X1,...,X n (y 1,..., y n ) (2) F X1,...,X n es continua por la derecha: F X1,...,X n ((x 1,..., x n ) + ) = lím... lím F X 1,...,X h h n 0 + n (x 1 + h 1,..., x n + h n ) = F X1,...,X n (x 1,..., x n ) (3) F X1,...,X n (,..., ) = lím x 1... lím x F X 1,...,X n (x 1,..., x n ) = 1 (4) F X1,...,X n (a 1,...,,..., a n ) = lím F X 1,...,X n (x 1,..., x i,..., x n ) = 0 x i }{{} Posición i Como en el caso real, se tiene que F X1,...,X n : R n [0, 1] caracteriza la medida de probabilidad P X1,...,X n : β(r n ) [0, 1] D β(r n ), D P X1,...,X n (D) = P({(X 1,..., X n ) D}) = P({ω Ω : (X 1 (ω),..., X n (ω)) D}) que es llamada ley conjunta de X 1,..., X n 41
46 42 ÍNDICE GENERAL Con esta notacion, las v. a. X 1,..., X n son independientes si y solo si n F X1,...,X n (x 1,..., x n ) = F Xi (x i ) Nota (X 1,..., X n ) : Ω R n ω (X 1 (ω),..., X n (ω)) se llama vector aleatorio; con ley P X1,...,X n en (R n, β(r n )) y distribución F X1,...,X n Definición El vector aleatorio (X 1,..., X n ) se dice abs. continuo si f X1,...,X n : R n R + que x 1 x n verifique: F X1,...,X n (x 1,..., x n ) = f X1,...,X n (z 1,..., z n ) dz 1... dz n, (x 1,..., x n ) R n A f X1,...,X n se le llama (función de) densidad conjunta de (X 1,..., X N ). Necesariamente verifica: f X1,...,X n (0) f X1,...,X n : R n R (1) f X1,...,X n 0 (2) f X1,...,X n (z 1,..., z n ) dz 1... dz n = 1 Además se cumple: d(f X1,...,X n ) dx 1,..., dx n (x 1,..., x n ) = f X1,...,X n (x 1,..., x n ), (x 1,..., x n ) R n Nota En este contexto f Xi se llama la densidad marginal de f X1,...,X n (Lo mismo con F Xi, que se llama la distribución marginal de F X1,...,X n ) Propiedad si y solo si: Las v. a. X 1,..., X n absolutamente continuas (conjuntamente) son independientes n f X1,...,X n (x 1,..., x n ) = f Xi (x i ) Es decir, la densidad conjunta en el producto de las densidades marginales. Demostración Tenemos que las v. a. X 1,..., X n son independientes si y solo si Aplicando F X1,...,X n (x 1,..., x n ) = n F Xi (x i ) d n dx 1,..., dx n se obtiene lo buscado. Reciprocamente, si aplicamos obtenemos lo aquí presentado. x 1 x n a f X1,...,X n Nota Todo lo relativo a densidad conjunta es salvo conjunto de medida de Lebesgue 0 en R n Observemos que si X es abs. continua, entonces Y = X 2 es abs. continua, pero el vector aleatorio (X, X 2 ) no es abs. continuo. Definición La sucesión de v. a. X 1,..., X n son independientes si y solo si n 1; X 1,..., X n son independientes.
47 ÍNDICE GENERAL 43 Cambio de Variables Lo haremos solo en caso de una v. a. (más adelante veremos el caso del vector aleatorio). Teorema Sea X : Ω R v. a. abs. continua con densidad f X y sea h : R R con derivada continua. Entonces: Y = h X : Ω R ω Y (ω) = h X(ω) = h(x(ω)) Es v. a. abs. continua cuya función de densidad f Y f Y (y) = X(y) h 1 ({y}) verifica: 1 h (X(y)) f X(X(y)), y R Luego, si h es inyectiva (como h : R R esto significa h creciente o decreciente), lo anterior es: 1 f Y (y) = h (h 1 (y)) f X(h 1 (y)), y R Nota Sea S = h(x(ω)) R, el rango de h X. Entonces, las 2 anteriores ecuaciones se deben leer y S en vez de y R Por otra parte, se necesita que {z S : h (z) = 0} sea un conjunto de puntos aislados. Donde S abierto, X(Ω) S, (h : S S). Demostración Lo hacemos considerando todas las regularidades que necesitamos. Sea h creciente con h > 0. Aplicando d dy queda: f Y (y) = d(f Y (y)) dy Sea h decreciente con h < 0. Aplicando d dy queda: F Y (y) = P(Y y) = P(h X y) = }{{} h creciente P(X h 1 (y)) = F X (h 1 (y)) = d(f X(h 1 (y))) dy F Y (y) = P(Y y) = P(h X y) = }{{} h decreciente = f X (h 1 1 (y)) h (h 1 (y)) P(X h 1 (y)) = P(X > h 1 (y)) = 1 F X (h 1 (y)) f Y (y) = f X (h 1 1 (y)) h (h 1 (y)) = f X(h 1 1 (y)) h (h 1 (y)) Veamos el caso no inyectivo: Por simpleza solo veremos el caso h 0, excepto por el punto h (x 0 ) = 0, en que la situacion es un maximo o minimo.
48 44 ÍNDICE GENERAL Sea y [0, h(x 0 )], h 1 (y) = {X (y), X + (y)}: Luego: F Y (y) = P(Y y) = P(ω : h(x(ω)) y) = P(ω : X(ω) X (y) X(ω) X + (y)) = P(X X (y)) + P(X X + (y)) }{{} abs. continua = F X (X (y)) + (1 F X (X + (y))) }{{} disjuntos f Y (y) = f X (X (y)) d(x (y)) f X (X + (y)) d(x +(y)) dy dy 1 = f X (X (y)) h (X (y)) + f 1 X(X + (y)) h (X + (y)) = 1 f X (X(y)) h (X(y)) X(y) h 1 (y)
49 Clase 14-29/04/2013 Si X v. a. abs. continua, entonces P X (x R : f X (x) > 0) = 1, pues f X (x)dx = 0. Luego, en caso abs. continuo, podemos suponer que: {x:f X (x)=0} X(Ω) = {x R : f X (x) > 0} Así pues, sea D abierto, {x : f X (x) > 0} D, que lo llamaremos S. Para h : D R con derivada continua y tal que {x D : h (x) = 0} es un conjunto finito de puntos aislados. Se tendra que la v. a. Y = h X verifica el teorema ya enunciado. Y es absolutamente continua con densidad f Y tal que F Y (y) = 0 si y / h(d). Para y h(d): Si h es inyectivo, para y h(d): f Y (y) = 1 f X (X(y)) h (X(y)) X(y) h 1 (y) f Y (y) = f X (h 1 1 (y)) h (h 1 (y)) Ejemplo Sea X v. a. abs. continua con f X (x) > 0 x R. Sea h : R R con h(x) = x 2. Y = h X = X 2 (y). Por lo anterior D = R = {x : f X (x) > 0}; h(d) = R +. Y tiene densidad f Y (y) = 0 si y / R +. Además, podemos considerar f Y (0) = 0 Para y > 0 se tiene: F Y (y) = P(Y y) = P(X 2 y) = P( y X y) = P(X y) P(X y) = F X ( y) F X ( y) d Luego, dy : f Y (y) = f X ( 1 y) 2 y + f X( 1 y) 2 y h 1 (y) = { y, y}, f Y (y) = 1 f X (X(y)) h (X(y)) Complemento a la densidad del vector aleatorio. X(y) h 1 (y) 45
50 46 ÍNDICE GENERAL Proposición Sean X 1, ldots, X n v. a. Supongamos que el vector aleatorio (X 1,..., X n ) tiene densidad conjunta f X1,...,X n, es decir: P(ω : (X 1 (ω),..., X n (ω) C) = f X1,...,X n (x 1,..., x n )dx 1,..., dx n C β(r n ) Entonces cada v.a X 1 es abs. continua con densidad f Xi dada por f Xi (x i ) = + Demostración d dx Esperanza dz 1 + C dz n f X1,...,X n (z 1,..., x i }{{} posicion i,..., z n ), Sin tomar en cuenta F Xi = P(X i x i ) = P(X 1,..., X i x i,..., X n X n ) x = P((X 1,..., X n ) (, x i ) R n 1 ) = h(t)dt = h(x) f Xi (x i ) = df X i (x i ) dx i = + + dz 1 x i dz 1 + dz i + La esperanza es el valor medio o esperado de una v. a. dz n f X1,...,X n (z 1,..., z n ) dz n f X1,...,X n (z 1,..., x i,..., z n ) z i Definición Sea X v. a. Entonces, cuando existe su esperanza es: + E(X) = x df X (x) Sobre la existencia: E(X) = 0 +0 x df X (x) + } {{ } x df X (x) }{{} 0 x df X (x) = x df X (x) > (el y implica que es finito) E(X) no existe si x df X (x) = y 0 0 E(X) existe si x df X (x) > y/o 0 Cada vez que escribamos E(X) supondremos que existe y es finita.
51 ÍNDICE GENERAL 47 Propiedades (a) Si X a = a, v. a. cte.e(x a ) = a (b) Si X = 1 B con B β (funciń indicadora)e(1 B ) = P(B) (c) X 0 E(X) 0; X Y E(X) E(Y ) (d) X, Y v. a. α, β R. Entonces: E(αX + βy ) = αe(x) + βe(y ). (Lineal) (e) Si X es discreta, es decir para cierto I numerable X = a I a1 {X=a}, entonces E(X) = a I ap(x = a) = a I ap X (a) (f) Si X es abs. continua con densidad f X : E(X) = (g) Si h : R R Boreliano, entonces E(h(X)) = (g ) E(X E(X)) = x f X (x)dx h(x) df X (x), df X (x) (h) Si X, Y son v. a. independientes, entonces E(XY ) = E(X)E(Y ). Aún más, si ϕ : R R y ψ : R R son borelianas, entonces ϕ(x), ψ(y ) son independientes, por lo que E(ϕ(X)ψ(Y )) = E(ϕ(X))E(ψ(Y )) (i) Si h : R R es convexa, E(h(X)) h(e(x)). Si es concava, E(h(X)) h(e(x)) (j) Si X n X puntualmente y monotonamente, entonces E(X n ) E(X). Si X n X puntualmente y monotonamente, entonces E(X n ) E(X) Si X n }{{} X puntualmente y se tiene X n Y con E(Y ) <, entonces E(X n ) }{{} E(X)
52 48 ÍNDICE GENERAL
53 Clase 15-02/05/2013 Demostración Propiedades de la clase anterior (a) Sea X a = a v. a. cte. F Xa (x) = P(X a a) = P(a { X a ) 1 Si x a = 1 a = 0 Si x < a = escalón de Heaviside E(X a ) = x df Xa (x) = a (F Xa (a) F Xa (a )) = a }{{} =1 0 Si x < 0 (b) Sea B β, X = 1 B F X (x) = P(ω : 1 B (ω) x) = P(B c ) = 1 P(B) Si x [0, 1) 1 Si x 1 + Entonces E(1 B ) = xdf X (x) = 0(1 P(B)) + 1(1 (1 P(B))) = P(B) (e) X discreta a valores en I R numerable. X = a I P(X = a) Entonces E(X) = xdf X (x) = a I a(f X (a) F X (a )) = a I ap(x = a) (h) Probemoslo solo para X = 1 B y Y = 1 D con B, D β. 1 B y 1 D independientes B y D independientes. E(1 B 1 D ) = E(1 B D ) = P(B D) = P(B)P(D) = E(1 B )E(1 D ) Propiedades (a) Si X 1,..., X n son v. a. y h : R n R función boreliana, entonces h(x 1 (ω),..., X n (ω) : Ω R es v. a. Se tiene ω h(x 1,..., X n ) E(h(X 1,..., X n )) = h(x 1,..., X n ) df X1,...,X n (x 1,..., x n ) R n Si los X 1,..., X n son independientes se tiene E(h(X 1,..., X n )) = h(x 1,..., X n ) df X1 (x 1 )... df Xn (x n ) R n 49
54 50 ÍNDICE GENERAL n Y si además h(x 1,..., X n ) = h i (x i ) queda n n E(h(X 1,..., X n )) = h i (x i ) df X1 (x 1 )... df Xn (x n ) = R n (b) Se tiene h 0, E(X) = 0 P(X = 0) = 1 R n h i (x i ) df Xi (x i ) Nota P(X = a) = 1 se dice X = a normalmente. Demostración Como X 0, si P(X = 0) < 1, a > 0 tal que P(X a) > 0. Además, como X 0 se tiene X(ω) a 1 {X a}. Luego, E(X) E(a)E(1 {X a} ) = ap(x a) lo que es una contradicción. Si X v. a. notamos µ X = E(X). En general escribiremos m k = E(X k ) para k 1 y los llamamos momentos de orden k. Así pues m 1 = µ X Propiedades E(X 2k ) (E(X)) 2k, k 1 Si X 0, entonces E(X k ) (E(X)) k, k 1 Es decir, m 2k m 2k 1 y si X 0, m k m k 1 Demostración Por (i) y como g(x) = x 2k es convexa para k 1 se deduce la primera. La segunda se deduce de g : R + R, g(x) = x k con k 1 es convexa y de X(Ω) = R +. Varianza Definición Sea X v. a. Su varianza es V ar(x) = E((X µ X ) 2 ) = E((X E(X)) 2 ) Propiedades Para X v. a. se verifica: (1) V ar(x) 0 (2) V ar(x) > 0 P(X = µ X ) = 1 X = a cte. con probabilidad 1. (3) Si α, β R, V ar(α + βx) = β 2 V ar(x) (4) V ar(x) = E(X 2 ) (E(X)) 2 (5) La función desviación cuadrática ϕ(c) = E((X C) 2 ) alcanza su minimo en C = µ X y ϕ(µ X ) = V ar(x) (6) Si X, Y son independientes, entonces V ar(x +Y ) = V ar(x)+v ar(y ). Más generalmente, si n n X 1,..., X n son v. a. independientes y a 0,..., a n R, se tiene V ar(a 0 + a i x i ) = a 2 i V ar(x i ) Nota V ar(x) esta definida si E(X) es finita. V ar(x) es finita si E(X) y E(X 2 ) son finitas. Para todo efecto consideraremos que V ar(x) existe y es finita.
55 ÍNDICE GENERAL 51 Demostración (1) (X µ X ) 2 0 V ar(x) = E((X µ X ) 2 ) 0 (2) Sea Y = (X µ X ) 2, se tiene Y 0. E(Y ) = V ar(x). Si V ar(x) = 0 se tiene E(Y ) = 0, y se concluye P(Y = 0) = 1, esto es P(X = µ X ) = 1. Además P(X = a) = 1 para cierto a R se tiene E(X) = a, de donde P(X = µ X ) = 1 y V ar(x) = E((X µ X ) 2 ) = 0. Juntando todo esto se tienen las equivalencias. (3) Sea Y = α + βx. Por linealidad E(Y ) = α + βe(x), es decir, µ Y = α + βe(x) = α + βµ X. Luego, V ar(α + βx) = V ar(y ) = E((α + βx α βµ X ) 2 ) = E(β 2 (X µ X ) 2 ) = β 2 V ar(x) (4) V ar(x) = E((X µ X ) 2 ) = E(X 2 2Xµ X + µ 2 X) = E(X 2 ) 2E(X)µ X + µ 2 X = E(X 2 ) µ 2 X (5) ϕ(c) = E((X C) 2 ) = E(X 2 2CX + C 2 ) = E(X 2 ) 2Cµ X + C 2. Derivando con respecto a C, obtenemos C = µ X. Volviendo a derivar con respecto a C obtenemos 2 y 2 > 0, luego en C = µ X alcanza su mínimo y por definición ϕ(µ X ) = V ar(x). (6) Sean X, Y v. a. indep. Se tiene µ x+y = µ X + µ Y. V ar(x + Y ) = E((X + Y µ X µ y ) 2 ) = E((X µ X ) 2 + 2(X µ X )(Y µ Y ) + (Y µ Y ) 2 ) = V ar(x) + 2E((X µ x )(Y µ Y )) + V ar(y ) Como X, Y indep., E(X µ x )E(Y µ Y ) que es 0 por (g ). Luego, V ar(x+y ) = V ar(x)+v ar(y ) Covarianza Definición Si X, Y son v. a., su Covarianza es: Cov(X, Y ) = E((X µ x )(Y µ Y )) Propiedades (1) V ar(x + Y ) = V ar(x) + 2Cov(X, Y ) + V ar(y ) (2) Cov(α + βx, γ + δy ) = βδcov(x, Y ) (3) Cov(X, X) = V ar(x) Demostración (1) Por lo hecho en (6) (2) Por un desarrollo análogo (3) Directa Definición Una v. a. Z tal que E(Z) = 0 se dice centrada Una v. a. Z tal que E(Z) = 0 y V ar(z) = 1 se dice normalizada. Propiedades Sea X v. a. Si E(X) es finita, entonces Z = X E(X) es centrada. Sea X v. a. Si E(X) es finita y 0 < V ar(x) <, entonces Z = X E(X) V ar(x) es normalizada.. Nota V ar(x) > 0 quiere decir que X no es constante. Demostración Punto 2: V ar ( ) X E(X) V ar(x) = }{{} (3) V ar(x) V ar(x) = 1
Variables Aleatorias y Distribución de Probabilidades
Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables
Más detallesProcesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
Más detalles1. Propiedades básicas de las medidas
AMARUN www.amarun.net Comisión de Pedagogía - Diego Chamorro Teoría de la medida (Nivel 2). Lección n 2: σ-álgebras y medidas EPN, verano 2009 1. Propiedades básicas de las medidas Marco de trabajo: la
Más detallesDepartamento de Ingeniería Matemática - Universidad de Chile
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial
Más detallesNotas de Probabilidades y
Notas de Probabilidades y Estadística Capítulos 1 al 12 Víctor J. Yohai vyohai@dm.uba.ar Basadas en apuntes de clase tomados por Alberto Déboli, durante el año 2003 Versión corregida durante 2004 y 2005,
Más detallesVectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias
Universidad de Chile Facultad De Ciencias Físicas y Matemáticas MA3403 - Probabilidades y Estadística Prof. Auxiliar: Alberto Vera Azócar. albvera@ing.uchile.cl Vectores Aleatorios 1. Vectores Aleatorios
Más detalles1. Medida Exterior. Medida de Lebesgue en R n
1. La integral de Lebesgue surge del desarrollo de la integral de Riemann, ante las dificultades encontradas en las propiedades de paso al ĺımite para calcular la integral de una función definida como
Más detallesTema 6: Modelos de probabilidad.
Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
Más detallesProbabilidad y Estadística
Vectores aleatorios Probabilidad y Estadística Vectores aleatorios Federico De Olivera Cerp del Sur-Semi Presencial curso 2015 Federico De Olivera (Cerp del Sur-Semi Presencial) Probabilidad y Estadística
Más detallesTerminaremos el capítulo con una breve referencia a la teoría de cardinales.
TEMA 5. CARDINALES 241 Tema 5. Cardinales Terminaremos el capítulo con una breve referencia a la teoría de cardinales. Definición A.5.1. Diremos que el conjunto X tiene el mismo cardinal que el conjunto
Más detallesTEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES
TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el espacio muestral asociado a un experimento aleatorio en un espacio
Más detallesVectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos
Definición Dado un espacio muestral S, diremos que X =(X 1, X 2,, X k ) es un vector aleatorio de dimension k si cada una de sus componentes es una variable aleatoria X i : S R, para i = 1, k. Notemos
Más detallesModelo de Probabilidad
Capítulo 1 Modelo de Probabilidad 1.1 Definiciones y Resultados Básicos Sea Ω un conjunto arbitrario. Definición 1.1 Una familia no vacía F de subconjuntos de Ω es llamada una σ-álgebra de subconjuntos
Más detallesContinuidad y monotonía
Tema 14 Continuidad y monotonía Generalizando lo que se hizo en su momento para sucesiones, definiremos la monotonía de una función, en forma bien fácil de adivinar. Probaremos entonces dos resultados
Más detallesTeorema de Hahn-Banach
Capítulo 3 Teorema de Hahn-Banach 3.1. Introducción Una vez introducidos los espacios vectoriales más importantes donde se tiene una estructura métrica a saber, los espacios de Hilbert y los espacios de
Más detallesTEMA 1.- PROBABILIDAD.-CURSO 2016/2017
TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas
Más detallesPráctica 3 Esperanza Condicional
1. Generalidades Práctica 3 Esperanza Condicional 1. Sea (X i ) i I una familia de variables aleatorias definidas sobre un mismo espacio medible (Ω, F) y sea Y otra variable aleatoria en este espacio.
Más detallesEn primer lugar, vamos a precisar un concepto al que ya nos hemos referido anteriormente, el de σ-álgebra.
Capítulo 20 Conjuntos de Borel Hemos demostrado ya que la familia M de los conjuntos medibles contiene a todos los abiertos de R n y, por tanto, a todos los conjuntos que podamos formar a partir de los
Más detallesContinuidad y Continuidad Uniforme. Aplicaciones lineales continuas.
Continuidad y Continuidad Uniforme. Aplicaciones lineales continuas. Beatriz Porras 1 Límites Las definiciones de ĺımite de funciones de varias variables son similares a las de los ĺımites de funciones
Más detallesInducción Matemática Conjuntos Funciones. Matemática Discreta. Agustín G. Bonifacio UNSL. Repaso de Inducción, Conjuntos y Funciones
UNSL Repaso de Inducción, y Inducción Matemática (Sección 1.7 del libro) Supongamos que queremos demostrar enunciados del siguiente tipo: P(n) : La suma de los primeros n números naturales es n(n+1)
Más detallesFunciones convexas Definición de función convexa. Tema 10
Tema 10 Funciones convexas Los resultados obtenidos en el desarrollo del cálculo diferencial nos permiten estudiar con facilidad una importante familia de funciones reales de variable real definidas en
Más detalles1. Funciones Medibles
1. Medibles Medibles simples... Hasta ahora hemos estudiado la medida de Lebesgue definida sobre los conjuntos de R n y sus propiedades. Vamos a aplicar ahora esta teoría al estudio de las funciones escalares
Más detallessup si A no es acotado.
Capítulo 6 Espacios completos 1. El teorema de Cantor En este capítulo estudiaremos más a fondo los espacios métricos completos. Lo primero que haremos es establecer la equivalencia entre completitud y
Más detallesFormulaciones equivalentes del Axioma de Elección
Formulaciones equivalentes del Axioma de Elección MARU SARAZOLA Resumen En este documento presentamos algunas formulaciones equivalentes del axioma de elección. En la primera sección, se presenta el enunciado
Más detalles520142: ALGEBRA y ALGEBRA LINEAL
520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición
Más detallesEspacios Vectoriales
Espacios Vectoriales Espacios Vectoriales Verónica Briceño V. noviembre 2013 Verónica Briceño V. () Espacios Vectoriales noviembre 2013 1 / 47 En esta Presentación... En esta Presentación veremos: Espacios
Más detallesEspacios compactos. 7.1 Espacios compactos
58 Capítulo 7 Espacios compactos 7.1 Espacios compactos Definición 7.1.1 (Recubrimiento). Sea X un conjunto y sea S X. Un recubrimiento de S es una familia A = {A i } i I de subconjuntos de X tales que
Más detallesTeorema del Valor Medio
Tema 6 Teorema del Valor Medio Abordamos en este tema el estudio del resultado más importante del cálculo diferencial en una variable, el Teorema del Valor Medio, debido al matemático italo-francés Joseph
Más detallesContinuidad y monotonía
Tema 14 Continuidad y monotonía Generalizando lo que se hizo en su momento para sucesiones, definiremos la monotonía de una función, en forma bien fácil de adivinar. Probaremos entonces dos resultados
Más detallesConjuntos, relaciones y funciones Susana Puddu
Susana Puddu 1. Repaso sobre la teoría de conjuntos. Denotaremos por IN al conjunto de los números naturales y por ZZ al de los enteros. Dados dos conjuntos A y B decimos que A está contenido en B o también
Más detalles10. Series de potencias
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 7-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San
Más detallesx (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:
FACULTAD DE CIENCIAS EXACTAS Y NATURALES UNIVERSIDAD DE BUENOS AIRES COMPLEMENTOS DE ANÁLISIS MAESTRíA EN ESTADíSTICA MATEMÁTICA SEGUNDO CUATRIMESTRE 2007 PRÁCTICA 7 1. Usando sólo la definición de derivada,
Más detallesCálculo de Probabilidades II Preguntas Tema 1
Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga
Más detallesIntroducción a la topología
Introducción a la topología Beatriz Abadie CENTRO DE MATEMÁTICAS FACULTAD DE CIENCIAS UNIVERSIDAD DE LA REPÚBLICA Agosto de 2013 i Índice general Capítulo 1. Elementos de la teoría de conjuntos 1 1.1.
Más detallesEspacios métricos completos
5 Espacios métricos completos Comenzamos introduciendo las sucesiones de Cauchy, que relacionamos con las sucesiones convergentes. En el caso de que coincidan, se trata de un espacio métrico completo.
Más detallesTeoremas de Convergencia
Capítulo 24 Teoremas de Convergencia El teorema de la convergencia monótona (Lema 21.3) establece ciertas condiciones sobre una sucesión de funciones medibles para que se puedan permutar los símbolos y
Más detallesCálculo de probabilidad. Tema 3: Variables aleatorias continuas
Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice
Más detallesEsperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso
Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio
Más detallesCálculo de Probabilidades II Preguntas Tema 2
Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución
Más detalles6-1. Dos preguntas sobre 100 tiradas de dado
Semana 6 Esperanza y Varianza 6-1. Dos preguntas sobre 100 tiradas de dado 6-2. Esperanza 6-3. Propiedades básicas de la esperanza 6-4. Distancia esperada a la media 6-5. Varianza 6-6. Demostraciones 6-1.
Más detallesTEMA 1.- PROBABILIDAD.- CURSO
TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas
Más detallesLa Medida de Lebesgue. Problema de la Medida
Capítulo 19 La Medida de Lebesgue. Problema de la Medida Hemos demostrado en el capítulo anterior que la medida exterior de Lebesgue es una medida sobre la familia M de los conjuntos medibles. Por definición,
Más detallesTeoría de la Probabilidad Tema 2: Teorema de Extensión
Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada
Más detallesTema 5 Variables aleatorias: distribuciones de probabilidad y características.
Tema 5 Variables aleatorias: distribuciones de probabilidad y características. 1. Introducción Según se ha reflejado hasta el momento, el espacio muestral asociado a un experimento aleatorio puede ser
Más detallesEstructuras Algebraicas
Tema 1 Estructuras Algebraicas Definición 1 Sea A un conjunto no vacío Una operación binaria (u operación interna) en A es una aplicación : A A A Es decir, tenemos una regla que a cada par de elementos
Más detallesTeorema de Lagrange. En esta sección demostramos algunos hechos básicos sobre grupos, que se pueden deducir de la definición
Teorema de Lagrange Capítulo 3 3.1 Introducción En este capítulo estudiaremos uno de los teoremas más importantes de toda la teoría de grupos como lo es el Teorema de Lagrange. Daremos en primer lugar
Más detallesEspacios compactos. Capítulo Cubiertas. En este capítulo estudiaremos el concepto de compacidad en un espacio métrico.
Capítulo 3 Espacios compactos 1. Cubiertas En este capítulo estudiaremos el concepto de compacidad en un espacio métrico. Definición 3.1. Sea (X, d) un espacio métrico y A X. Una cubierta de A es una familia
Más detallesApuntes sobre la integral de Lebesgue
Apuntes sobre la integral de Lebesgue Miguel Lacruz Martín Universidad de Sevilla 1. Medida de Lebesgue 1.1. Introducción La longitud l(i) de un intervalo I R se define habitualmente como la distancia
Más detallesEspacios topológicos. 3.1 Espacio topológico
Capítulo 3 Espacios topológicos 3.1 Espacio topológico Definición 3.1.1. Un espacio topológico es un par (X, τ), donde X es un conjunto, y τ es una familia de subconjuntos de X que verifica las siguientes
Más detallesDefinición 1 Sean E, F y G tres espacios vectoriales. Una transformación ϕ : E F G se llama bilineal si satisface las siguientes condiciones:
Producto tensorial 0.1 Transformaciones multilineales Definición 1 Sean E, F y G tres espacios vectoriales. Una transformación ϕ : E F G se llama bilineal si satisface las siguientes condiciones: ϕ(λx
Más detallesDerivada de la función compuesta. Regla de la cadena
Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de
Más detallesProbabilidades y Estadísticas
Facultad de Ciencias Físicas y Matemtáticas, Universidad de Chile Apuntes de Clases Profesor: Roberto Cortez Tomás Wolf y Pedro Franz 6 de febrero de 2014 Santiago, Chile. Índice general I Probabilidades
Más detallesEstadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas
Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones
Más detallesNociones topológicas elementales de R n
Nociones topológicas elementales de R n 1 Espacio vectorial R n Consideremos el conunto R n de las n-uplas de números reales, donde n es un número natural arbitrario fio. Los elementos de R n, que llamamos
Más detallesPart I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas
Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando
Más detallesSemana 09 [1/28] Sucesiones. 29 de abril de Sucesiones
Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará
Más detallesTema 4: Variable Aleatoria Bidimensional
Curso 2016-2017 Contenido 1 Definición de Variable Aleatoria Bidimensional 2 Distribución y fdp Conjunta 3 Clasificación de Variables Aleatorias Bidimensionales 4 Distribuciones Condicionales 5 Funciones
Más detallesComisión de Pedagogía - Diego Chamorro Análisis Funcional (Nivel 2).
AMARUN www.amarun.org Comisión de Pedagogía - Diego Chamorro Análisis Funcional (Nivel 2). Lección n 3: Lema de Baire y Teorema clásicos del Análisis Funcional EPN, verano 2012 Definición 1 (Espacio de
Más detallesTema 1: Conjuntos. Miguel Ángel Olalla Acosta Departamento de Álgebra Universidad de Sevilla. Septiembre de 2017
Tema 1: Conjuntos Miguel Ángel Olalla Acosta miguelolalla@us.es Departamento de Álgebra Universidad de Sevilla Septiembre de 2017 Olalla (Universidad de Sevilla) Tema 1: Conjuntos Septiembre de 2017 1
Más detallesTema 2: Variables Aleatorias Unidimensionales
Tema 2: Variables Aleatorias Unidimensionales Teorı a de la Comunicacio n Curso 27-28 Contenido 1 Concepto de Variable Aleatoria 2 Función Distribución 3 Clasificación de Variables Aleatorias 4 Función
Más detallesVariables aleatorias
Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con
Más detallesCapítulo 6: Variable Aleatoria Bidimensional
Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el
Más detalles: k }, es decir. 2 k. k=0
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San
Más detallesTema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.
Tema 6 - Introducción 1 Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Generalización Tema 6. Variables aleatorias unidimensionales
Más detalles3er Concurso Unversitario de Matemáticas Galois-Noether 2013 Segunda Etapa
3er Concurso Unversitario de Matemáticas Galois-Noether 013 Segunda Etapa Sábado 17 de agosto 013 Bienvenido a la Segunda Etapa del Concurso Universitario de Matemáticas Galois-Noether Responde a las preguntas
Más detallesConjuntos, Aplicaciones y Relaciones
Conjuntos, Aplicaciones y Relaciones Curso 2017-2018 1. Conjuntos Un conjunto será una colección de objetos; a cada uno de estos objetos lo llamaremos elemento del conjunto. Si x es un elemento del conjunto
Más detallesTema 1: Conjuntos. Miguel Ángel Olalla Acosta Departamento de Álgebra Universidad de Sevilla. Septiembre de 2016
Tema 1: Conjuntos Miguel Ángel Olalla Acosta miguelolalla@us.es Departamento de Álgebra Universidad de Sevilla Septiembre de 2016 Olalla (Universidad de Sevilla) Tema 1: Conjuntos Septiembre de 2016 1
Más detallesFunciones de Clase C 1
Capítulo 7 Funciones de Clase C 1 Vamos a considerar ahora la extensión a varias variables del concepto de función de clase C 1. Cada vez que establezcamos una propiedad de las funciones diferenciables,
Más detalles2 Espacio muestral y σ-álgebra de sucesos
1 Introducción ESPACIOS DE PROBABILIDAD Julián de la Horra Departamento de Matemáticas U.A.M. Los espacios de probabilidad son las estructuras que se utilizan en Matemáticas para estudiar los fenómenos
Más detallesModelos Estocásticos I. Notas de Curso. Cimat, A.C.
Modelos Estocásticos I Notas de Curso Joaquín Ortega Sánchez Víctor Rivero Mercado Cimat, A.C. Índice general 1. Introducción a la Teoría de Probabilidad 1 1.1. Introducción............................................
Más detalles1 Esperanza Matemática
1 Esperanza Matemática Los conceptos de σ-álgebra, medida (en particular las medidas de probabilidad), y función medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en
Más detallesSemana02[1/23] Conjuntos. 9 de marzo de Conjuntos
Semana02[1/23] 9 de marzo de 2007 Introducción Semana02[2/23] La teoría de conjuntos gira en torno a la función proposicional x A. Los valores que hacen verdadera la función proposicional x A son aquellos
Más detallesEl grupo lineal proyectivo. Homologías. Afinidades.
Tema 3- El grupo lineal proyectivo Homologías Afinidades 31 El grupo lineal proyectivo Recordamos que en el tema anterior hemos definido, para una variedad lineal proyectiva L P n no vacía, el grupo lineal
Más detallesTema 2: Teorema de estructura de los grupos abelianos finitamente generados.
ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con
Más detallesUnidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Más detallesPrincipio de acotación uniforme
Capítulo 4 Principio de acotación uniforme 4.1. Introducción. Teorema de Baire En este último capítulo vamos a establecer una serie de resultados sobre aplicaciones lineales y continuas entre espacios
Más detallesA. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones.
Tema 1. Espacios de Probabilidad y Variables Aleatorias: Espacios de Probabilidad. 1 A. Probabilidad. Un experimento aleatorio tiene asociados los siguientes elementos: Espacio muestral. Conjunto Ω de
Más detallesSemana 14 [1/19] Polinomios. 8 de junio de Polinomios
Semana 14 [1/19] 8 de junio de 2007 División Semana 14 [2/19] Teorema de la División Al ser (K[x], +, ) un anillo, ocurre un fenómeno similar al de : Las divisiones deben considerar un posible resto. Teorema
Más detallesEstructuras algebraicas. Departamento de Álgebra. Apuntes de teoría
ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 2015/2016 Apuntes de teoría Tema 1: Grupos y subgrupos. 1.1. Introducción Definición 1.1. Un grupo es un par (G, ), donde G es un conjunto no vacío,
Más detallesPráctica 11 Probabilidades
Matemáticas Especiales II Año 2014 Prof: T. S. Grigera JTP: V. Fernández AD: S. Franchino Práctica 11 Probabilidades Esta práctica abarca los siguientes temas: a) Definiciones y axiomas. Interpretación
Más detallesAnillo de polinomios con coeficientes en un cuerpo
Capítulo 2 Anillo de polinomios con coeficientes en un cuerpo En el conjunto Z se ha visto cómo la relación ser congruente módulo m para un entero m > 1, es compatible con las operaciones suma y producto.
Más detallesDiferenciales de Orden Superior
Capítulo 10 Diferenciales de Orden Superior En este capítulo extenderemos a las funciones definidas sobre espacios normados el concepto de función r-veces diferenciable y de clase C r y obtendremos las
Más detallesPráctica 2: Cardinalidad. Propiedades básicas de los conjuntos
Cálculo Avanzado Segundo Cuatrimestre de 2014 Práctica 2: Cardinalidad Propiedades básicas de los conjuntos Ejercicio 1. Demostrar las siguientes igualdades de conjuntos: i) B i I A i = i I(B A i ). ii)
Más detallesTema 3. Probabilidad y variables aleatorias
1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad
Más detallesCálculo de probabilidad. Tema 1: Combinatoria y probabilidad
Cálculo de probabilidad Tema 1: Combinatoria y probabilidad Guión Guión 1.1. Análisis combinatorio Regla de multiplicación Este es el método de conteo más sencillo que existe. Supongamos que realizamos
Más detallesTopología en R n. Continuidad de funciones de varias variables
. Continuidad de funciones de varias variables María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I (1 o Grado en Ingeniería Electrónica Industrial y Automática) M. Muñoz (U.P.C.T.) Continuidad
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 3
Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias
Más detalles2. El Teorema del Valor Medio
2.24 45 2. El Teorema del Valor Medio Comenzaremos esta sección recordando dos versiones del teorema del valor medido para funciones de 1-variable y por tanto ya conocidas: 2.22 Sea f : [a, b] R R una
Más detallesEspacios compactos. Se pretenden alcanzar las siguientes competencias específicas:
4 Espacios compactos En este capítulo introducimos los conceptos de espacio y subespacio compacto. Se estudian propiedades de los conjuntos compactos, así como relación entre la compacidad y las funciones
Más detalles1. Conjuntos y funciones
Centro de Matemática Facultad de Ciencias Universidad de la República Introducción a la Topología Curso 2016 PRACTICO 1: CONJUNTOS. 1 1. Conjuntos y funciones Ejercicio 1. Si I es un conjunto y A α es
Más detallesEs claro que es una relación de equivalencia. Para ver que tener la misma cardinalidad y la cardinalidad están bien definidas queremos ver que
Capítulo II Cardinalidad Finita II.1. Cardinalidad Definimos I n para n N como I n = {k N : 1 k n}. En particular I 0 =, puesto que 0 < 1. Esto es equivalente a la definición recursiva { si n = 0 I n =
Más detallesPauta Control 1 - MA2A1 Agosto a) Estudiar si las siguientes denen una norma en R 2 : 3) (x, y) = x + 3
Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Matemática Pauta Control 1 - MA2A1 Agosto 2008 Profesor: Marcelo Leseigneur Auxiliares: Cristopher Hermosilla
Más detallesEspacios vectoriales
Espacios vectoriales [Versión preliminar] Prof. Isabel Arratia Z. Algebra Lineal 1 En el estudio de las matrices y, en particular, de los sistemas de ecuaciones lineales realizamos sumas y multiplicación
Más detallesConjuntos Medibles. Preliminares
Capítulo 18 Conjuntos Medibles Preliminares En el capítulo anterior vimos que la medida exterior de Lebesgue no resulta σ-aditiva en todo R n. Ahora vamos a construir una familia M de subconjuntos de R
Más detallesF-ESPACIOS. 1.- Introducción
F-ESPACIOS 1.- Introducción Recordemos que un subconjunto A de un espacio topológico X se llama diseminado o raro (nowhere dense en ingés) si A=. Un subconjunto que se pueda escribir como unión numerable
Más detallesVECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios
VECTORES ALEATORIOS 1 Introducción En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias características simultáneamente, como por ejemplo la velocidad de transmisión
Más detallesIntroducción a la Teoría de Probabilidades
Capítulo 1 Introducción a la Teoría de Probabilidades 1.1. Introducción El objetivo de la Teoría de Probabilidades es desarrollar modelos para experimentos que están gobernados por el azar y estudiar sus
Más detallesCurso intermedio de PROBABILIDAD
Curso intermedio de PROBABILIDAD Luis Rincón Departamento de Matemáticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 México DF Mayo 2005 El presente texto corresponde a la versión electrónica
Más detallesOperaciones extendidas de conjuntos
234 A. GENERALIDADES DE TEORÍA DE CONJUNTOS Tema 3. Operaciones extendidas de conjuntos En este tema extenderemos las operaciones de conjuntos anteriormente definidas a familias arbitrarias de conjuntos.
Más detallesSemana05[1/14] Relaciones. 28 de marzo de Relaciones
Semana05[1/14] 28 de marzo de 2007 Introducción Semana05[2/14] Ya en los capítulos anteriores nos acercamos al concepto de relación. Relación Dados un par de conjuntos no vacíos A y B, llamaremos relación
Más detalles