MA Probabilidades

Tamaño: px
Comenzar la demostración a partir de la página:

Download "MA Probabilidades"

Transcripción

1 Facultad de Ciencias Físicas y Matemáticas Universidad de Chile Martinez, Servet MA Probabilidades Transcriptor: Alan Beltrán Flores 1 Otoño Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Román, que pasaron sus apuntes de clases a las que falté (justificadamente, por supuesto)

2 2

3 Índice general Clase 01-12/03/ Clase 02-14/03/ Clase 03-19/03/ Clase 04-21/03/ Clase 05-26/03/ Clase 06-28/03/ Clase 07-02/04/ Clase 08-04/04/ Clase 09-09/04/ Clase 10-16/04/ Clase 11-18/04/ Clase 12-23/04/ Clase 13-25/04/ Clase 14-29/04/ Clase 15-02/05/ Clase 16-07/05/ Clase 17-09/05/ Clase 18-14/05/ Clase 19-16/05/

4 4 ÍNDICE GENERAL

5 Clase 01-12/03/2013 Axiomática de Probabilidades - Ω conjunto de puntos llamado espacio muestral - β clase de eventos Los elementos de β son subconjuntos de Ω, es decir, β P(Ω), en donde P(Ω) = {ω Ω} es el conjunto potencia de Ω. En la axiomatica, β es una σ-algebra (sigma-algebra). Definicion β es una σ-algebra si: 0. β P(Ω) 1., Ω β 2. B β B c β, en donde B c = Ω \ B 3. B n β n N B n β A la propiedad 3 se le llama ser cerrado por complemento, mientras a la propiedad 4 se le llama ser cerrado por union numerable. Nota B n β n N lo escribiremos (B n : n N) Definicion Si β es σ-algebra, a la pareja (Ω, β) se le llama espacio medible. Propiedad Toda σ-algebra β es un algebra [de conjuntos], es decir, verifica las propiedades 0, 1, 2 y: 3. A, B β A B β Demostracion Tomemos B 1 = A, B 2 = B y B n = A n > 2. Se tiene entonces que B n β n N. Luego, A B = B n, que pertenece a β gracias a 3. Observacion Notemos que la propiedad 3 equivale a: n N, B 1,..., B n β = 1 n B i β

6 2 ÍNDICE GENERAL Demostracion Por induccion: Para n = 1, es evidente. Entonces, si tenemos un n, demostremos para el n + 1: Por 3 Y queda asi demostrado. B 1,..., B n, B n+1 β n B i β; B n+1 β ( n ) B i B n+1 β Recuerdo Recordemos las leyes de Morgan: Para finitos: n+1 B i β ( n ) c B i = n (Bi c ) ( n ) c n B i = (Bi c ) Para numerables: ( ) c B i = (Bi c ) ( ) c B i = (Bi c ) Nota Propiedad B i = {ω Ω : ω B n, n N} Si β es σ-algebra, entonces: n a) B 1,..., B n β β b) (B n : n N) β β Demostracion n a) B 1,..., B n β (2) B1, c..., Bn c β (3 ) Bi c β b) Es analoga a la anterior. ( n ) c n Bi c = B i β Propiedad Si β es σ-algebra, entonces verifica que: A, B β A \ B β A, B β A B β

7 ÍNDICE GENERAL 3 Demostracion Ambas pueden ser escritas en forma de uniones e intersecciones A \ B = A B c A B = (A \ B) (B \ A) = (A B c ) (B A c ) Todos los conjuntos resultados de uniones e intersecciones, uniones numerables, diferencias y diferencias simetricas estaran en β. Propiedad Sea β σ-algebra. Sea (B n : n N) β. Entonces: lím sup B n β En donde: lím inf B n β lím sup B n = k n lím inf B n = k n B k B k Nota lím sup B n = {ω Ω : n N k n tal que ω B k } = {ω Ω : k n tal que ω B kn } = {ω Ω : {k N : ω B n } < } lím inf n = {ω Ω : n N k n tal que ω B k } = {ω Ω : {k N : ω / B n } < } A = Cardinal de A Observaciones Por la ley de Morgan: ( ) c lím sup B n = lím inf ( ) c lím inf B n = lím sup Bc n B c n Propiedad Sea Ω un espacio. Sean β, β σ-algebras. Entonces β β es σ-algebra. Luego, para i = 1,..., n: n B i es σ-algebra.

8 4 ÍNDICE GENERAL Demostracion 0. β β P(Ω) 1., Ω β;, Ω β, Ω β β 2. B β β B c β β 3. (B n : n N) β β B n β β 2 y 3 son porque β y β son σ-algebras. Propiedad Nota Sean Ω, Λ espacios. Si β λ es σ-algebra en Ω λ Λ, entonces: β λ es σ-algebra. λ Λ β λ = {B P(Ω) : B β λ λ Λ} λ Λ Demostracion 0. β λ P(Ω) λ Λ λ Λ β λ P(Ω) 1., Ω β λ λ Λ, Ω λ Λ β λ 2. B β λ B β λ λ Λ B c β λ λ Λ B c β λ λ Λ λ Λ 3. (B n : n N) β λ (B n : n N) β λ λ Λ λ Λ B n β λ λ Λ B n λ Λ β λ

9 Clase 02-14/03/2013 Sea Ω. Notemos que siempre podemos definir en el las σ-algebras: a) N = {, Ω} σ-algebra trivial b) P(Ω) σ-algebra discreta Demostracion: Ambos cumplen trivialmente con 0, 1 y 2. Veamos 3: a) Sea (B n : n N). Si B n = n N B n = N Si n N tal que B n = Ω B n = Ω N Como esos son los unicos casos Posibles, entonces es verdad b) (B n : n N) P(Ω) B n P(Ω) Nota N P(Ω), excepto cuando Ω = {α}, en cuyo caso N = P(Ω) = {, {α}} Proposicion Sea Ω y sea Γ P(Ω). Entonces,! σ-algebra que notaremos σ(γ) y que llamaremos σ-algebra generada por Γ, que verifica las siguientes propiedades: a) σ(γ) es σ-algebra. b) Γ σ(γ) c) Si Γ β y β es σ-algebra, entonces σ(γ) β Nota σ(γ) es la σ-algebra mas pequeña que contiene a Γ. Demostracion Definamos Λ = {β : β es σ-algebra y Γ β}. Se tiene P(Ω) Λ, luego Λ. Por propiedad anterior, β es σ-algebra β Λ Como Γ β β Λ Γ β Por ultimo, si Γ β y β es σ-algebra, entonces β Λ. Luego β β 5 β Λ β Λ

10 6 ÍNDICE GENERAL Hemos probado que σ(γ) = β verifica (a, b, c). Ademas, es la unica σ-algebra que lo hace, β Λ pues si β tambien lo verificase, deduciriamos de (c) que β σ(γ) y que σ(γ) β, concluyendo que β = σ(γ). Nota Si Ω es numerable (finito o de cardinalidad de N), entonces siempre consideraremos en Ω la σ-algebra discreta P(Ω). Observemos que en este caso Ω numerable se tiene En efecto, si B P(Ω), entonces: P(Ω) = σ(γ), con Γ = {{ω} : ω Ω} B = {w}, union numerable de conjuntos en Γ ω B Luego B σ(γ), de donde P(Ω) σ(γ) Nota Sea Ω, Γ = {{ω} : ω Ω} la familia de singletons. Entonces: σ(γ) = {B Ω : B es numerable o B c es numerable} DEMOSTRARLO Definicion σ-algebra de Borel: En Ω = R, la σ-algebra de Borel se define por β(r) = σ(γ), con Γ = {(, a] : a R} Propiedad a, b R, con a b se tiene que: (, a] [a, b] (, a) (a, b] cualquier union o interseccion [a, ) [a, b) numerable, complemento o (a, ) (a, b) diferencia de estos conjuntos {a} β(r) Demostracion Caso por caso 1) (, a) = (, a 1 ) n ( Como, a 1 ) Γ, n N, deducimos n (, a 1 ) σ(γ) = β(r) n 2) [a, ) = (, a) c. Como (, a) β(r), se deduce que (, a) c β(r) 3) [a, b) = (, b) [a, ). Como ambos estan en β(r), entonces [a, b) β(r) 4) a = [a, a] β(r) Nota B β(r) se llamara Boreliano Ademas, β(r) P(R) ( A R tal que A / β(r)) Definicion Analogamente, se tiene en Ω = R n la σ-algebra de Borel, definida β(r n ) = σ(γ), n con σ(γ) = { (, a i ) : a i,..., a n R}

11 ÍNDICE GENERAL 7 Nota Nota A los B R n tal que B β(r n ) se les llama Borelianos. n a i, b i R n β(r n ), a i, b i tal que a i b i. Definicion Definicion Diremos que (B n : n N) es familia disjunta si B i B j = i j, con i, j N Sea (Ω, β) espacio medible. P es una medida de probabilidad en (Ω, β) si verifica: a) P es funcion P : β [0, 1] B P(B) b) P(Ω) = 1 c) (B n : n N) β familia disjunta en β se tiene que P A esta ultima propiedad se le llama σ-aditividad. Propiedad Sea P medida de probabilidad. Entonces P( ) = 0. ( B n ) = P(B n ) Demostracion Tomemos ( B n = ) n N. Entonces (B n : n N) β son disjuntos. Luego, por σ-aditividad P B n = P(B n ). Como P( ). B n =, entonces P( ) = Luego, P( ) = o P( ) = 0. Y como P [0, 1], entonces P( ) = 0.

12 8 ÍNDICE GENERAL

13 Clase 03-19/03/2013 Una medida µ en (Ω, β) verifica: (0) µ : β R + { } (1) µ( ) = 0 (2) µ es σ-aditiva Se dira medida finita si µ(b), B β Se tiene que si µ es medida, entonces es una medida de probabilidad si y solo si µ(ω) = 1. Por otra parte, si µ es medida finita y µ(ω) 0, entonces P(B) = µ(b), B β es medida µ(ω) de probabilidad. Definicion! medida λ en (R, β(r)) llamada medida de Lebesgue que verifica: Se tiene λ(r) =, λ({a}) = 0, a R λ((a, b]) = b a, a b en R Definicion! medida λ n en (R n, β(r n )) llamada medida de Lebesgue que verifica: n n λ n ( (a i, b i )) = (b i a i ) Se tiene λ n (R n ) =, λ n ({x}) = 0, x R n Propiedades Sea (Ω, β, P)) espacio de probabilidad. P es una medidad de probabilidad en (Ω, β). Entonces: a) P es aditiva, es decir, si B 1,..., B n β son disjuntos, se tiene ( ) n n P B i = P(B i ) b) Si A, B β, A B, entonces P(B \ A) = P(B) P(A) c) Si A, B β, A B, entonces P(A) P(B) d) B β, P(B c ) = 1 P(B) e) P(A B) = P(A) + P(B) P(A B) 9

14 10 ÍNDICE GENERAL Nota Las propiedades a), b), c) y e) son comunes a todas las medidas. Demostracion a) Tomemos B i = i > n. Luego, (B i : i N) β son disjuntos, y por σ-aditividad: ( ) ( ) n P B i = P B i = P( )=0 {}}{ n P(B i ) = P(B i ) i N i N b) A B A B \ A = B A c, son conjuntos disjuntos y verifican B = A (B \ A). Luego por a) deducimos P(B) = P(A) + P(B \ A) c) Como P(B \ A) 0, por b) deducimos P(A) P(B) d) Resulta de tomar B Ω, luego por b), y ya que B c = Ω \ B: P(Ω \ B) = P(Ω) P(B) = 1 P(B) e) A B = A B B \ A A \ B = A B (B \ A B) (A \ A B). Luego: P(A B) a) = P(A B) + P(B \ A B) + P(A \ A B) b) = P(A B) + P(B) P(A B) + P(A) P(A B) = P(A) + P(B) P(A B) Fórmula de Inclusión-Exclusión Sea B 1,..., B n β. Entonces: ( n ) P B i = ( ) n ( 1) J +1 P B i = ( 1) k+1 J {1,...,n} J i J k=1 1 i 1<...<i k n P ( k B i ) Primero suma todos las probabilidades de conjuntos, luego le resta las intersecciones dobles, después le suma las intersecciones triples, le resta las cuádruples y así. Para el caso n = 2 obtenemos e). Para el caso n = 3 obtenemos: P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C) Demostración Por inducción, en auxiliar. Propiedades Sea (B n : n N) β. Entonces: (a) Si B n B n+1 n N (Se escribe B n y se dice B n creciente), se tiene ( ) P B n = lím P(B n) (Continua Monótona Creciente) (b) Si B n+1 B n n N (Se escribe B n y se dice B n decreciente), se tiene ( ) P B n = lím P(B n) (Continua Monótona Decreciente) ( ) (c) P es sub-σ-aditiva. Es decir, P B n P(B n )

15 ÍNDICE GENERAL 11 Demostración (a) Definamos (A n : n N) por A 1 = B 1 ; A n+1 = B n+1 \ B n, n N. Se tiene (A n : n N) β, además los A n son disjuntos [probarlo] y se verifica que: ( ) A n B n n N A n n ( ) B n = B n A i n N B n ( ) + ( ) = A n = B n. Luego: ( ) ( P B n = P = lím P ( n A n ) A n = ( n ) P(A n ) = lím P(A i ) A i ) = lím P(B n) (b) Se deduce de (a) y Morgan. En efecto, B n Bn c. Luego, por (a): ( ) P Bn c = lím (P(Bc n)) = lím (1 P(B n)). Además: (( ) c ) ( ) P B n = 1 P B n, Luego ( ) ( ) 1 P B n }{{} = lím (1 P(B n)) P B n = lím (P(B n)) Morgan ( n ) (c) Definamos (A n : n N) por A 1 = B 1 ; A n+1 = B n+1 \ B i n N Se tiene (A n : n N) β, son disjuntos y verifican: n A n B n B n = A i, n N. Luego, A n = B n y deducimos ( ) ( P B n = P A n ) = P(A n ) Por * y porque P es creciente Nota (c) implica la sub-aditividad: B 1,..., B n β, y tomando B i =, i > n, tenemos ( n ) n P P(B n ) {}}{ P(B n )

16 12 ÍNDICE GENERAL Corolario Sea (B n : n N) β ( ) (a) Si P(B n ) = 0 n N, entonces P B n = 0 ( ) (b) Si P(B n ) = 1 n N, entonces P B n = 1 Demostración Se demuestran: (a) por sub-σ-aditividad. (b) por (a) y Morgan.

17 Clase 04-21/03/2013 Definición Si lím inf B n = lím sup B n, se dice que lím B n = lím sup Si B n, se tiene que lím B n = B n Si B n, se tiene que lím B n = B n B n Propiedad Las ultimas propiedades (a) y (b), se pueden enunciar como: Sea (B n : n N) β. Si B n o B n, entonces: ( ) P lím B n = lím P(B n) Definicion y Propiedad Ω 0 Ω). Se tiene: Sea (Ω, β) un espacio medible. Sea Ω 0 β, Ω 0 (en particular β Ω0 = {B β : B Ω 0 } ( ) = {B Ω 0 : B β} (**)β Ω0 es σ-algebra (en Ω 0 ) y se llama σ-algebra inducida (o restringida) en Ω 0. La pareja (Ω 0, β Ω0 ) es espacio medible. Además, β Ω0 β. Demostración (*) es trivial (**) (1), Ω 0 β Ω0 evidentemente. (2) B β Ω0 Ω 0 \ B = Ω 0 B c nβ Ω0 (3) (B n : n N) β Ω0 B n β Ω0 Probabilidad Condicional Sea (Ω, β, P) un espacio de probabilidades, que vamos a usar de aquí en adelante. Definición P(A B) = Sean A, B β, con P(B) > 0. Definimos: P(A B) P(B) y lo llamamos probabilidad de A condicional a B. 13

18 14 ÍNDICE GENERAL Propiedades Obvias Sea P(B) > 0. Se tiene: (a) P(A B) = P(A B B) (b) P(A B) = P(A B) P(B) (c) Si P(A) > 0 P(A B) P(B) = P(B A) P(A) P(A B) = P(B A) P(B) P(A) Propiedad Sea P(B) > 0. Entonces P( B) : β B [0, 1] A P(A B) en (B, β B ), es decir, (B, β B, P( B)) es espacio de probabilidad. Demostración es una medida de probabilidad P( B) (a) P( B) = = 0 P(B) P(B B) (b) P(B B) = = 1 P(B) ( ) (c) Nos basta demostrar que (B n : n N) β se cumple P A n B = P(A n B) (pues β B β). En efecto: ( ) ( ) P A n B = 1 P(B) P A n B Propiedades Sea P(B) > 0: (a) P(B B) = 1 (b) P( B) = 0 (c) P(A B) = 0 P(A B) = 1 (d) P(A B c ) = 1 P(A B) = 0 (e) P(Ω B) = 1 (f) P(A) = 1 P(A B) = 1 (g) P(A) = 0 P(A B) = 0 (h) P(B) = 1 P(A B) = P(A), A β = 1 P(B) P(A n B) = P(A n B) Demostración PROPUESTOS. Puede ser útil, para (c), (d), (f) y (g), probar: Sea (Ω, β, P). Entonces, A β, se tiene: C β, P(A C) = 0 P(C) = P(A) Fórmula de Bayes Sea I un conjunto numerable (finito o no). Sea (A i : i I) β partición medible de Ω, es decir: (0) (Ai : i I) β (p 1 ) (A i : i I) disjuntos (p 2 ) Ω = i I A i

19 ÍNDICE GENERAL 15 Luego, intersectando, B β : B = i ), de donde P(B) = i I(B A P(B A i ). Si asumimos i I P(A i ) > 0 i I, tenemos que P(B) = P(B A i ) P(A i ). Si P(B) > 0, verificamos, j I: i I P(A j B) = P(B A j) P(A j ) P(B A i ) P(A i ) i I Conocida como la formula de Bayes Nota Lo anterior también es válido si (A i : i I) es una P-partición medible, es decir: (0) (A i : i I) β (p 1 ) P(A ( i A j ) = 0, i j (p 2 ) P Ω \ ) A i = 0 i I Proposición B 1,..., B n β, con P(B i ) > 0 i = 1,..., n, se tiene que: ( n ) n i 1 P B i = P B i j=1 B j = P(B n B n 1... B 1 )... P(B 2 B 1 ) P(B 1 ) Demostración P(B 1... B n ) = P(B n B 1... B n 1 ) P(B n 1... B 1 ) = P(B n B 1... B n 1 ) P(B n 1 B 1... B n 2 ) P(B n 2... B 1 ) = = P(B n B 1... B n 1 )... P(B 2 B 1 ) P(B 1 ) Nota En la primera igualdad, cuando i = 1, P(B 1 Ω) = P(B 1 ). i 1 j=1 0 B j = Ω, por lo que P B 1 j=1 B j =

20 16 ÍNDICE GENERAL

21 Clase 05-26/03/2013 Independencia Definición A, B β se dicen (P-)independientes (notado )si P(A B) = P(A) P(B) Propiedades (a) P(A) = 0 o 1 A es independiente en todo B β (b) Si P(A), P(B) > 0, entonces A B P(A B) = P(A) P(B A) = P(B) (c) Si P(A), P(B) (0, 1), entonces, A B = A B (d) A A P(A) = 0 o 1 Demostración (a) Si P(A) = 0 P(A B) = 0 A B Si P(A) = 1 P(B) = P(B A) + P(B A c ) = P(B A) A B (b) Por definición (c) P(A B) = 0 P(A) P(B) (d) P(A) = P(A A) = P(A) 2 P(A) = 0 P(A) = 1 Proposición A B A B c A c B c A c B c Demostración Basta probar A B A B c. En efecto: P(A B c ) = P(A \ A B) = P(A) P(A B) = P(A) P(A) P(B) = P(A)(1 P(B)) = P(A) P(B c ) Definición Sea n 2. Sean B 1,..., B n β. B 1,..., B n se dicen independientes si: ( n ) n P A i = P(A i ), A i = B i o A i = Bi c, i = 1,..., n Proposición Sean B 1,..., B n β. Se tiene: ( ) (a) B 1,..., B n son independientes sí y solo sí J {1,..., n} P B i = P(B i ) i J (b) Si B 1,..., B n son, entonces B i1,..., B 1k son independientes, 1 i 1 <... < i k n 17 i J

22 18 ÍNDICE GENERAL Demostración... Definición (B n : n N) β es una familia de eventos independientes si J finito, J N se tiene (B i : i J) independiente. Se cumple (B n : n N) β es familia independiente si n N, B 1,..., B n independiente. Observación Sea (Ω, β, P) espacio de probabilidad. Sean a 1, a 2 β σ-álgebras incluidas en β (se llaman sub-σ-álgebras). Ellas se dicen independientes sí y solo sí A 1 a 1, A 2 a 2, se tiene P(A 1 A 2 ) = P(A 1 ) P(A 2 ) Se tiene que A, B β son independientes sí y solo sí σ(a) y σ(b) son independientes, donde σ(a) y σ(b) son las σ-álgebras generadas por A y B respectivamente. En efecto es cierto, ya que σ(a) = {, A, A c, Ω} y σ(b) = {, B, B c, Ω}. Caso Discreto Combinatorio Si Ω es numerable (finito o infinito), lo dotamos de la σ-lgebra β = P(Ω). En este caso, una medida de probabilidad en (Ω, β) esta determinada por una función, llamada densidad de probabilidad discreta p : Ω R + ω p(ω) que verifica: (i) (ii) p(ω) 0 ω Ω p(ω) = 1 ω Ω Nota En particular p(ω) [0, 1] ω Ω En efecto, si P es una medida de probabilidad en (Ω, β), entonces p(ω) = P({ω}), ω Ω verifica (i) y (ii), ya que 1 = P(Ω) = P ( ω Ω {ω} ) = ω Ω P({ω}) Recíprocamente, si p verifica (i) y (ii) entonces P : β [0, 1] definida por P(B) = ω B p(ω), B β = P(Ω) tambien lo cumple. Observemos que P({ω}) = p(ω). Además, P así definido es una función de β [0, 1], pues 0 P(B) ω Ω p(ω) = 1. Por otra parte, P(Ω) = 1, y además si (B n : n N) P(Ω) disjuntos se verifica que P ( ) B n = ( ) p(ω) = p(ω) = P(B n ) ω B n ω B n por lo que la σ-aditividad se cumple.

23 ÍNDICE GENERAL 19 Caso Ω finito Por lo dicho, una medida de probabilidad en (Ω, β) está dada por p : Ω R +. La medida de probabilidad llamada equiprobable en Ω es tal que p(ω) = 1 Ω, ω Ω También se le llama uniforme (en Ω). Es la única medida de probabilidad en (Ω, β) en que a cada punto de Ω se le da el mismo peso. En este caso se tiene la igualdad P(B) = p(ω) = B, es decir, un caso equiprobable. Ω ω B B Ω : P(B) = B Casos favorables : Ω Casos posibles

24 20 ÍNDICE GENERAL

25 Clase 06-28/03/2013 Combinatoria Recordemos algunas igualdades de cardinalidad. Notaremos por I n un conjunto de n elementos, I n = n. Para todo efecto de cardinalidad podemos suponer I n = {1,..., n}, (I 0 =, I 0 = 0) Se tiene: k k k I nl = I nl = n l l=1 l=1 Luego In k = n k. Esta igualdad se puede escribir como F(I k, I n ) = n k, donde F(I k, I n ) = {f : I k I n }. En efecto F(I k, I n ) In k es una biyección. f (f(i) : i I k ) Sea I(I k, I n ) = {f : I k I n, f inyectiva}. Se tiene I(I k, I n ) solo en el caso k n. Supongamos k n. Se tiene I(I k, I n ) = l=1 n! = n(n 1) (n k + 1) (n k)! I(I k, I n ) esta en biyección con {(x 1,..., x k ) I k n : x i x j, i j} Demostración I(I k, I n ) f k 1 l=0 I n l (f(1),..., f(k)) Si f es inyectiva, f(1) I n, f(2) I n \ {f 1 },..., f(k) I n \ {f(1),..., f(k 1)}. Luego k 1 k 1 I(I k, I n ) = I n l = (n l) = n(n 1) (n k + 1) l=0 l=0 En particular, para k = n, I(I k, I n ) = P er(i n ), conjunto de biyecciones de I n I n cuyos elementos partición se llaman permutaciones de I n. Se cumple que P er(i n ) = n! Sea k n. Consideremos P k (n) = {B : B I n, B = k}, subconjuntos de I n con k elementos. Se tiene: ( ) n n! P k (n) = = k (n k)! k!, k n 21

26 22 ÍNDICE GENERAL Demostración En I(I k, I n ) definamos la relación de equivalencia: f g {f(i) : i I k } = {g(i) : i I k } f(i k ) = g(i k ) : los conjuntos imagen son los mismos Sea I(I k, I n )/ el conjunto de clases de equivalencia. Se tiene i : P k (n) I(I k, I n )/ B i(b) = {f I(I k, I n ) : f(i k ) = B} i está bien definido, pues B = k = f(i k ) f I(I k, I n ). Además, i es claramente biyección. Luego: n! P k (n) = I(I k, I n )/ = (n k)! k! pues f I(I k, I n ), Clase de equivalencia de f = P er(f(1),..., f(k)) = k! Definición Sea I n. Sean n 1,..., n k 0 tal que k = n. Definimos P art(n 1,..., n k ) = {(B 1,..., B k ) : conjunto de particiones de I n en k conjuntos B 1,..., B k tal que B i = n 1, i = 1,..., k} Notemos que si k = 2 se tiene n 2 = n n 1, luego P art(n 1, n n 1 ) P n1 (n) es una biyección, pues todo B P n1 (n) determina únicamente (B, B c ) P art(n 1, n n 1 ). Se tiene: k 2 ( )( ) n n n1 P art(n 1,..., n k ) = n k 1 n l n n l Hipergeométrica = = n 1 n 2 i 1 k n n! n 1! n k! l=1 n i n l = l=1 n k 1 l=1 n k ( i 1 n n k l )! l=1 ( i n i! n n l )! Hay una urna con n bolas, de las cuales n 1 son rojas y n 2 = n n 1 son negras. Sea 1 k 1 k n. Se saca al azar k bolas. Cual es la probabilidad de que se hayan sacado exactamente k 1 bolas rojas? (Con k 2 = k k 1 bolas negras) l=1

27 Clase 07-02/04/2013 Revisitemos la Hipergeomeométrica. I n = J J c I n = representa urna con n bolitas J = conjunto de bolas rojas J = n 1 J c = conjunto de bolas negras J c = n 2 = n n 1 El experimento consiste en sacar al azar un conjunto de k bolitas. Nos preguntamos por la probabilidad de que este conjunto contuviera k 1 bolitas rojas y luego k 2 = k k 1 bolitas negras, donde 0 k 1 k n. Tomemos: Ω = P k (n) = {ω : ω I n, ω = k} El conjunto al azar, es un conjunto ω Ω que se escoje de manera equiprobable en Ω, es decir, P({ω}) = 1 Ω = 1 P k (n) = ( 1 ), ω Ω n k Nos interesa calcular P(A), en donde: Con lo que P(A) = ω A A = {ω Ω : ω J = k 1, ω J c = k k 1 } = {ω Ω : ω J = k 1 } Ya que ω = k, ω Ω P({ω}) = A Ω = ( A ) n k Además A : A P k1 (n 1 ) P(k 2 )(n 2 ) ω ω J ω J c que es claramente un biyección, por lo que concluimos que: ( )( ) ( )( ) n n n1 n n1 Que es tambien: P(A k ) = k 1 k 2 ( ) = n k k 1 ( )( ) k n k k k ( ) 2 n k P(A k ) = k 1 n k ( ) 1 n En donde I n = J J c ; Ω = P k (n) = {ω I n : ω = k}; A k = {ω Ω : ω J = k} es cambiada a I n = K K c ; Ω = Pn1 (n) = {ω I n : ω = n 1 }; Ã k1 = { ω Ω : ω K = k} 23 n 1

28 24 ÍNDICE GENERAL Generalización de la Hipergeométrica Sea una urna I n con n bolas, I n esta particionado en bolas de r colores distintos. r r I n = J l, J l =bolas de color l. Notamos que J l = n l, luego n = l=1 Se saca al azar un conjunto de k bolas. Cuál es la probabilidad de que obtenga k 1 bolas de r J 1,..., k r bolas de J r? Notar que k = l=1 Ω = P k (n) = {ω : ω I n, ω = k}; P({ω}) = 1 Ω = ( 1 ) n k A kl = {ω Ω : ω J l = k l }, l = 1,..., r Se tiene que A k1...k r P k1 (J 1 ) P kr (J r ) es biyección, luego: ω (ω J 1,..., ω J r ) ( ) ( ) n1 nr r ( ) nl A k1,...,k r = = k l k 1 k r r l=1 ( nl ) k l l=1 n l Luego, la probabilidad buscada es: P(A k1,...,k r ) = lo que habiamos hecho antes. l=1 k l ( ) Notemos que si n = 2 es igual a n k Observemos que lo hecho anteriormente, es decir, sacar el conjunto ω Ω = P k (n) de manera equiprobable, es enteramente equivalente a: sacar una bola al azar de I n, llamada v 1, sacar una segunda bola al azar de I n \ {v 1 } y así hasta sacar una k-ésima vola al azar de I n \ {v 1,..., v k 1 }. El conjunto ω = {v 1,..., v k } así escogido, es un conjunto de k elementos elegidos al azar, es decir, de manera equiprobable en P k (n). Este experimento es sacar las bolas de I n sin repetición y sin reposición. En el caso con reposicion: Se sacan k bolas de manera independiente desde I n, cada una de ellas escogida de manera equiprobable. Sea x 1,..., x k las bolas así escogidas de I n. Es decir, x p I n. En este caso {x 1,..., x k } k, pues puede haber repetición. Así, se tiene Ω = I k n y P(x 1,..., x k ) = 1 I n k = 1 n k

29 Clase 08-04/04/2013 Variables Aleatorias Sea (Ω, β, P) espacio de probabilidad que consideraremos fijo. Definición La función X : Ω R se dice variable aleatoria si C β(r), X 1 (C) β, es decir, {ω Ω : X(ω) C} β, C β(r) Es facil mostrar que X : Ω R es variable aleatoria si y solo si a R, X 1 ((, a]) β, es decir, si y solo si a R, {ω Ω : X(ω) a} β. Propiedades (i) La función constante X a : Ω R definida por X a (ω) = a, ω Ω es v. a. (ii) Sea B β, la función indicadora 1 B : Ω R ω 1 B (ω) = { 1 si ω B 0 si ω / B Más aún, para B Ω se tiene que 1 B es una v. a. si y solo si B β (iii) Si X es v. a. y α R, entonces αx es v. a. (iv) Si X, Y son v. a., entonces X + Y es v.a. (v) Si X, Y son v. a., entonces X Y es v. a. (vi) Si X, Y son v. a., Y 0, entonces X es v. a. Y (vii) Si X, Y son v. a., entonces máx(x, Y ) y mín(x, Y ) son v. a. (viii) Si (X n : n N) es familia de v. a. tal que lím X n, entonces es v. a. lím X n es v. a. Nota Por (iii) y (iv), el conjunto de v. a. es espacio vectorial; por (iii), (iv) y (v) el conjunto de v. a. es un álgebra conmutativa; por (vii) el conjunto de v. a. es un reticulado (cerrado para el máximo y el mínimo); por (i), (iii), (iv) y (v) el conjunto de v. a. es un álgebra conmutativa unitaria, pues la funcion constante 1 : Ω R es el neutro de la multiplicación. ω 1(ω) = 1 Demostración Solo la de (ii) y la de (i) por mientras: (ii) Sea B β y 1 B : Ω R { 1 si ω B ω 1 B (ω) = 0 si ω / B 25

30 26 ÍNDICE GENERAL Para probar que 1 B es v. a. debemos probar que C β(r), 1 1 B (C) β. Se tiene que 1 1 B (C) = {ω Ω : 1 B(Ω) β}, asi que, por casos: Caso 1: Si {0, 1} C por definición 1 1 B (C) = Ω β Caso 2: Si 1 C, 0 / C por definición 1 1 B (C) = B β Caso 3: Si 0 C, 1 / C por definición 1 1 B (C) = Bc β Caso 4: Si {0, 1} / C por definición 1 1 B (C) = β Como son los unicos casos posibles, concluimos que 1 1 B (C) β, C β(r), luego 1 B es v. a. La segunda parte de (ii), resulta de lo hecho previamente (la parte si ) y de (*?) tomando C = {1} P(R), para la parte solo si. (i) Notemos que si a = 1, X = 1 Ω, luego ese caso se deduce de (ii). En general la función X a = a es v. a. pues: { Xa 1 Ω si a C (C) = si a / C Y como Ω, β, se deduce el resultado.

31 Clase 09-09/04/2013 Demostración (Continuación) (iii) Sea X v. a. y α R. Digamos α 0. Para C β(r) debemos mostrar que (αx) 1 (C) β. Se tiene (αx) 1 (C) = {ω Ω : αx(ω) C} = {ω Ω : X(ω) 1 α C} = X 1 ( 1 C), en donde α 1 α C = {y R : αy C} β(r). Luego, como X es v. a., X 1 ( 1 C) β. α (vi) Sean X, Y v. a. Por demostrar que Z = máx(x, Y ) es v. a. Para esto, basta probar que Z 1 ((, a]) β a R Z 1 ((, a]) = {ω Ω : Z(ω) a} = {ω Ω : máx(x(ω), Y (ω)) a} Corolario X a) Sean X, Y v. a. Entonces, Y es v. a. {Y 0} b) Sea (X n : n N) sucesión de v. a. Entonces ( lím X n) = {ω Ω : X(ω) a Y (ω) a} = {ω Ω : X(ω) a} {ω Ω : Y (ω) a} = X 1 ((, a]) Y 1 ((, a]) β { lím Xn} es v. a. Observación Y (ω) = 0 X = 0 por definición. Y es 1 si lím X { lím Xn} n y 0 en caso contrario. Notación Escribiremos {X C} = {ω Ω : X(ω) C}. Así mismo, escribiremos su notación análoga {X 1 C 1,..., X n C n } = {ω Ω : X 1 (ω) C 1,..., X n (ω) C n } También { lím X n} = {ω Ω : lím X n} Observación Lo que hemos hecho hasta ahora en R tambien se puede hacer en R = R {, }, llamado R extendido. β(r) = σ(j), con J = {[, a], [a, ], (, a], [a, )} Todas las propiedades son análogas cuando estan bien definidas: Definidas: { 0 = 0 0 = 0 No definidas: { (±) ± (±) (±) 27

32 28 ÍNDICE GENERAL Propiedad Sean (X n : n 1) v. a. tal que n N X n : Ω R (o R). Entonces lím inf X n y lím inf X n son v. a., lím inf y lím sup van de Ω a R Nota lím sup X n (ω) lím inf X n(ω) = sup. ínf. de la acumulación de {X n (ω) : n N}. Definición h : R R o R R se dice boreliano si C β(r) : h 1 (C) β(r), con h 1 (C) = {x R : h(x) C}. Se prueba que esta propiedad es equivalente a: a R, h 1 ((, a]) = {x R : h(x) a} β(r) Nota Todas las funciones continuas o con un conjunto aislado numerable de discontinuidades son funciones borelianas. Si C β(r), la indicadora 1 C es boreliana. El conjunto de funciones borelianas tiene las propiedades ya descritas de v. a. (espacio vectorial, reticulado, álgebra unitaria). Propiedad Sea X : ω R y h : R R boreliano, entonces h X : Ω R es v. a. Demostración Sea C R. Entonces (h X) 1 (C) = X 1 (h 1 (C)) β Definición y Propiedad Sea X : Ω R una v. a., entonces P X : β(r) [0, 1] es C P(X 1 (C)) una medida de probabilidad en (R, β(r)) que se llama probabilidad inducida por X o ley de X. Demostración (0) P X esta bien definida en β(r) pues X es v. a. Luego C β(r), X 1 (C) β, luego P(X 1 (C)) [0, 1] (1) P X (R) = P(X 1 (C)) = P(Ω) = 1 (2) Sean (C n : n N) β(r) familia disjunta de borelianos. Entonces: ( ) ( ( ) P X C n = P(X 1 C n )) = P (X 1 C n ) = P(X 1 (C n )) = P X (C n ) Observación Notemos que para X i : Ω R v. a. i = 1,..., n se tiene: C 1,..., C n β(r), {ω Ω : X i (ω) C i, i = 1,..., n} β n n {X i C i i = 1,..., n} = {X i C i } = X 1 (C i ) β

33 ÍNDICE GENERAL 29 Definición Las v. a. X 1,..., X n se dicen (P-)independientes si: P({X i C i, i = 1,..., n}) = ( n ) Esto es: P {X i C i } = = n P(X i C i ), C 1,..., C n β(r) n P(X i C i ) n P Xi (C i ) Propiedad Para X v. a., σ(x) = {X 1 (C) : C β(r)} es una σ-álgebra contenida en β. Se tiene que X 1,..., X n son independientes si y solo si las σ-algebras σ(x 1 ),..., σ(x n ) son independientes entre si (en (Ω, β, P)) Demostración Ejercicio.

34 30 ÍNDICE GENERAL

35 Clase 10-16/04/2013 Variables Aleatorias Discretas Definición X : Ω R v. a. se dice discreta si la imagen X(Ω) es un conjunto que notamos I = X(Ω), tal que I R numerable. Equivalentemente lo podriamos definir como X : Ω I v. a. tal que I es conjunto numerable; esto ocurre si y solo si X 1 ({a}) = {ω Ω : X(ω) = a} β, a I Admitimos la generalización siguiente: X : Ω R v. a. d. si I R numerable tal que P(X I) = 1 Definición Sea X : Ω I v. a. d. Definimos su función de densidad discreta por: P X (a) = P(X = a), a I La función de densidad se extiende a R si P X (x) = 0, x / I. Como P(X I) = 1, se tiene que: P X (a) 0 a I P X (a) = 1 Observación Si X i : Ω I i, i = 1,..., n son v. a. d., siempre podemos suponer X i : Ω I, n i = 1,..., n, tomando I = I i. Analogamente si X i : Ω I i es v. a. d para i N, lo podemos hacer si tomamos I = I i. i N Propiedad Sean X i : Ω I, i = 1,..., n v. a. d., entonces ellas son independientes si y solo si ( n ) n P {X i = a i } = P(X i = a i ) En efecto, esto implica ( n ) P {X i C i } = n P(X i C i ) C i I, i = 1,..., n Y por otra parte esto implica que se cumple C i P(R), pues ( n ) ( n ) P {X i C i } = P {X i (C i I)} ya que ( n ) P {X i (C i I c )} = 0 31

36 32 ÍNDICE GENERAL Clases de Variables Aleatorias Discretas 1 ra Clase - Constante Sea a 0 R. X a0 : Ω R es v. a. d. con I = {a 0 }. En este caso ω X(ω) = a 0 { 1 Si a = a0 P Xa0 (a) = δ a,a0 = Se dice X a0 v. a. constante a 0. 0 Si a a 0 2 da Clase - Bernoulli(p) Sea p [0, 1], X : Ω R es v. a. Bernoulli(p) si P(X {0, 1}) = 1 tal que P(X = 0) = 1 p P(X = 1) = p Nota Si p = 0 o p = 1, es igual a la v. a. constante X 0 o X 1 respectivamente. Observación Sean a, b R, a b. Si P(Y = a) = 1 p, entonces X = Y a es Bernoulli(p). b a P(Y = b) = p Dicho de otro modo, si X es Bernoulli(p), entonces Y = a + bx es tal que P(Y = a) = 1 p. P(Y = b) = p 3 ra Clase - Binomial(n, p) Sea n 1, p [0, 1]. X : Ω R v. a. d. se dice Binomial(n, p) si P(X {0,..., n}) = 1 y ( ) n P X (k) = P(X = k) = p k (1 p) n k, k {0,..., n} k Nota En lo anterior 0 k = 0 si k > 0, 0 0 = 1. Observemos que n n ( ) n P X (k) = p k (1 p) n k = (p + (1 p)) n = 1 k k=0 k=0 Propiedades Sean X 1,..., X n v. a. Bernoulli(p) independientes. Entonces Y = ( ) n Binomial(n, p), es decir, P(Y = k) = p k (1 p) n k, k = 0,..., n k n i=0 X i es Nota Binomial se puede ver como el numero k de caras que aparecen en n lanzamientos. Demostración ( n ) P(Y = k) = P X i = k = P( {i {1,..., n} : X i = 1} = k) ( ) = P {{i I n : X i = 1} = J} = P(X i = 1, i J; X i = 0, i J k ) J I n J =k J I n J =k J I n J =k = ( P(X = 1))( P(X = 0)) = i J i J 0 J I n J =k p J (1 p) n J = }{{} ( n k {J I n: J =k} =( n k) ) p k (1 p) n k

37 ÍNDICE GENERAL 33 Relación entre Bernoulli(p) y la Indicadora Sea X v. a. Bernoulli(p). Entonces, X(ω) {0, 1} ω Ω, de donde X = 1 B con B = {ω Ω : X(ω) = 1}. En efecto, { 1 Si ω B X(ω) = 1 X(ω) = 1 B (ω) = 0 Si ω / B X(ω) = 0 Se tiene P(B) = p, pues P(B) = P(X = 1) = p X Bernoulli(p) es indicadora. Notemos que X = 1 B = 1 {X=1} Observación Si X i v. a. Bernoulli(p) i = 1,..., n, ellas son independientes si y solo si (B i : i = 1,..., n) son independientes, ya que B i = 1 {X}, i = 1,..., n Definición La sucesión de v. a. X m : Ω R, n N son independientes si y solo si N N : X 1,..., X N son independientes. Es decir, una familia de v. a. es independiente si y solo si toda subfamilia finita de ellas es independiente. 4 ta Clase - Geométrica(p) Sea p [0, 1]. La v. a. Z : Ω R se dice Geométrica(p) si P(Z N) = 1 y P Z (k) = P(Z = k) = (1 p) k 1 p, k N Nota En lo anterior 0 k = 0 si k > 0, 0 0 = 1. Observemos que P Z (k) = (1 p) k 1 1 p = p 1 (1 p) = 1 k N k 1 Propiedad Sea (X i : i = 1 N) una familia independiente de v. a. Bernoulli(p). Entonces, Y = ínf({i N : X i = 1}) es Geométrica(p), es decir: P(Y = k) = (1 p) k 1 p, k N Demostración P(Y = k) = P(ínf({i N : X i = 1}) = k) = P(X i = 0 i < k; X k = 1) k 1 = P(X i = 0)P(X k = 1) = (1 p) k 1 p Nota P(Y = N) = 1, pues Y N { }, pero P(Y = ) = 0. Observemos que Y = X i = 0 i N, por lo que P(Y = ) = P(X i = 0 i N) = i N(1 p) = 0 Observación Si Z Geométrica(p) W = Z 1 es Geométrica(p) en {0, 1,...}. Se tiene que P(W {0, 1,...}) = 1 P W (k) = P(W = k) = P(Z 1 = k) = P(Z = k + 1) = (1 p) (k+1) 1 p = (1 p) k p, k 0 5 ta Clase - Poisson(λ) Sea λ > 0 R. La v. a. X se dice Poisson(λ) si P(X Z + ) = 1 y P X (k) = P(X = k) = λk k! e λ, k 0

38 34 ÍNDICE GENERAL Comprobemos Se tiene P(X Z + ) = P X (k) = λk k! e λ = e λ e λ = 1 k Z + k Z + Propiedad Sea X Poisson(λ), entonces si Y n es Binomial(n, p(n)) y np(n) }{{} λ P(X = k) = lím P(Y n = k) x Se puede interpretar como el numero de llamadas recibidas en una unidad de tiempo con una escala λ

39 Clase 11-18/04/2013 Función de Distribución Tratemos el caso general de v. a. de X R. Vamos a describir P X (que la llamaremos ley de X) como P X (C) = P(X 1 C) = P(X C) Cuando C = (, ] se tiene P X ((, x]) = P(X x), x R Vemos que esto ultimo caracteriza la ley de X. A continuacion definiremos y consideraremos generales: Definicion F : R [0, 1] se dice funcion de distribucion si verifica: (0) F : R [0, 1] es funcion (1) F creciente, es decir, x y F (x) F (y) (2) F continua a la derecha, es decir, F (x + ) = F (x), donde F (x + ) = lím F (x+h) (3) F (0) = 1 h 0 + (4) F ( ) = 0, donde F ( ) = lím F (x) x Observaciones Siempre existe F (x ) = lím F (x h) x R h 0 + x es punto de continuidad si F (x ) = F (x + ) = F (x) x es punto de discontinuidad si F (x ) F (x + ) (Obviamente se tiene F (x ) F (x + )) Notamos D F = {x : F (x ) F (x + )} el conjunto de discontinuidades de F Teorema a) Si P es una medida de probabilidad en (R, β(r)), entonces F (x) := P((, x]), x R define una función de distribución. b) Si F : R [0, 1] es función de distribución, entonces!p medida de probabilidad en (R, β(r)) tal que F (x) = P((, x]) Demostración Solo demostraremos a). Sea P medida de probabilidad en (R, β(r)). Debemos demostrar que F (x) = P((, x]), x R verifica (0) a (4) para ser distribucion. (0) Como (, x] β(r), P((, x]) esta bien definido y como P es medida de probabilidad P((, x]) [0, 1] (1) x y (, x] (, y) }{{} P creciente P((, x]) P((, y]) F (x) F (y) (2) F (x + ) = F (x) equivale a: h n > 0, h n 0 se tiene lím F (X + h n) = F (x). Entonces, sea h n que cumple con lo pedido. Se tiene (, x + h n ] decreciente y (, x] = (, x + h n ]. Por continuidad monotona de P: P((, x]) = F (x) = lím P(, x + h n] = F (x + ) 35

40 36 ÍNDICE GENERAL (3) Si x n, se tiene (, x n ) creciente y R = (, x n ). Por continuidad monotona ( ) P(R) = P (, x n ) lím F (x) = 1 (4) Si x n, (, x n ] es decreciente y = (, x n ], por lo que P( ) = lím P((, x n]) lím F (x n) = 0 Propiedades Para F (x) = P((, x]), se tiene: (a) P((, x)) = F (x ), x R (b) P({x}) = F (x) F (x ) (c) P((a, b]) = F (b) F (a) (d) P((a, b)) = F (b ) F (a) (e) P([a, b]) = F (b) F (a ) (f) P([a, b)) = F (b ) F (a ) (g) P([a, )) = 1 F (a ) (h) P((a, )) = 1 F (a) Demostración Con (a) se obtienen todas las demas, asi que demostramos solo esa: (a) Consideramos h n > 0, h n 0. Se tiene F (x ) = lím F (x h n) = lím P((, x h n))

41 Clase 12-23/04/2013 Nota Observemos que si F (a ) = 0, entonces P([a, )) = 1, luego P(C) = P(C [a, )), C β(r). Si la (función de) distribución F tiene densidad f, entonces f(z) = 0, z (, a) y luego P(C) = f(z) dz C [a, ) Observación Sea F (función de) distribución con (función de) densidad f. Notemos que f puede ser alterado o redefinido en un conjunto finito o numerable de punto sin que F o P sean modificados. Más generalmente, f puede modificarse en un conjunto A tal que λ(a) = 0 sin que F o P sean modificados. Aqui λ : β(r) [0, ) es la medida de Lebesgue. Variables Aleatorias Absolutamente Continuas Sea X : Ω R v. a. La medida de probabilidad P X : β(r) [0, 1] llamada ley de X caracterizada por la función de distribucion de X= F X : R [0, 1] x F X (x) = P X ((, x)) = P(X x) Se tiene D FX = {x R : F X (x) F X (x )} = {x R : P X ({x}) 0} = {x R : P(X = x) 0} conjunto numerable. Si P X (D FX ) = 1 se tiene que X es v. a. discreta, pues toma valores en el conjunto numerable D FX. Si P X (D FX ) = 0, se tiene P(X = x) = 0 x R, o equivalentemente F X (x) = F X (x ) x R, es decir F X es continua. Definición X es v. a. absolutamente continua si su función de distribución F X es absolutamente continua, es decir si: f X (x) = d(f X(x)), x R llamada densidad de X y que verifica: dx f X 0 y f X (z) dz = 1. Luego, C β(r) se tiene P X (C) = P(X C) = f X (z) dz Por lo dicho anteriormente, f X esta definida salvo en un conjunto que tenga medida de Lebesgue 0. Escribiremos X F X o X f X para decir respectivamente que X tiene distribucion F X o densidad f X. 37 C

42 38 ÍNDICE GENERAL Familias de Variables Aleatorias Absolutamente Continuas 1 ra Familia - Uniforme Definición Sea a < b. La variable aleatoria X se dice uniforme [a, b] si es abs. continua con densidad f X (z) = 1 0 si z < a b a 1 z a [a,b](z) y función de distribución asociada F X (z) = si z [a, b] b a 1 si z > b Además P X (C) = P X (C [a, b]) = 1 = λ(c [a, b]), λ medida de Lebesgue. b a Para definir la uniforme podemos utilizar 1 a,b en vez de 1 [a,b], pues f X se puede modificar en un número finito de puntos. Propiedad En efecto: Sea U v. a. uniforme [0, 1). Entonces, la v. a. X = a + (b a)u es uniforme [a, b]. ( F X (x) = P(X x) = P(a + (b a)u x) = P U x a ) = b a 2 da Familia - Exponencial (λ) 0 si x < a x a si x [a, b] b a 1 si x > b Sea λ > 0. La v. a. X se dice Exponencial (λ) si es abs. continua con densidad f X (z) = λe λz 1 (0, ) (z). A λ se le llama tasa. Es claro que Su función de distribución es F X (x) = P(X > x) = e λx, x > 0 f X (z) dz = { 1 e λx si x > 0 0 f X (z) dz = e λz = 1. 0 si x 0. Luego, F X(x) = 1 F X (x) = 0 Nota Si Y Geometrica(p), P(Y > n) = k>n(1 p) k 1 = (1 p) n = e θn, con θ = log(1 p) si p (0, 1) Luego, la Exponencial es la versión continua de la Geométrica. 3 ra Familia - Gamma (α) Sea α > 0. Recordemos que Γ(α) = para n N. 0 e x x a 1 dx esta en (0, ) y se verifica Γ(n) = (n 1)!, La v. a. X se dice Gamma(α) si es abs. continua con densidad f X (z) = e z z α 1 1 (0, ) (z) Γ(α) g(z) Nota General Si g(x) 0 y 0 < g(x) dx <, entonces f(z) = g(x) dx densidad (es decir, es la normalización de g) es función de

43 ÍNDICE GENERAL 39 4 ta Familia - Normal o Gaussiana Sea µ R y σ > 0. La v. a. X se dice N(µ, σ 2 ) si es absolutamente continua con densidad f X (z) = 1 σ 2π e 1 z µ 2 ( σ ) 2, z R. Es claro que f X 0. Probemos que Demostración Tomando y = z µ σ 1 2π debemos mostrar que e y2 2 dy = 1, equivalente a e y2 π 2 dy = 2 0 f X (z) dz = 1. Haciendo el cambio x = y 2 queda 0 e x2 dx = π 2 equivalente a Luego, haciendo el cambio a coordenadas polares: π r e r2 dθ dr = π 4 e (x2 +y 2) dx dy = π Que es fácil ver que se cumple. Propiedad Sea X N(0, 1). Entonces Y = µ + σx N(µ, σ 2 ). Demostración Sea Y = µ + σx. Se tiene F Y (z) = P(Y y) = P(µ + σx y) = P(X y µ σ ) = F X( y µ σ ) Luego Y es abs. continua con densidad f Y (z) = d(f Y (z)) dz (y) = d(fx( y µ σ )) = 1 dy σ f X( y µ σ ) = 1 σ 2π e 1 z µ 2 ( σ ) 2 N(µ, σ 2 )

44 40 ÍNDICE GENERAL

45 Clase 13-25/04/2013 Independencia Propiedad Si X 1,..., X n son v. a. independientes y h i : R R, i = 1,..., n son funciones borelianas, entonces las v. a. h 1 (X 1 ),..., h n (X n ) son independientes. Demostración De donde {h i (X i )C i } = {X i h 1 i (C i )}, C i β(r) por ser boreliano. P(h i (X i ) C i, i = 1,..., n) = P(X i h 1 i (C i ), i = 1,..., n) n n = P(X i h 1 i (C i )) = P(h i (X i ) C i ) Propiedad Es facil ver que las v. a. son independientes si y solo si n P(X i a i, i = 1,..., n) = P(X i a i ), a 1,..., a n R = n F Xi (a i ) que llama- Nota En lo que sigue notaremos: F X1,...,X n : R [0, 1] (a 1,..., a n ) F X1,...,X n (a 1,..., a n ) remos función de distribución conjunta de las v. a. X 1,..., X n. Ella verifica: (0) F X1,...,X n es función (1) F X1,...,X n es creciente: x i y i i = 1,..., n F X1,...,X n (x 1,..., x n ) F X1,...,X n (y 1,..., y n ) (2) F X1,...,X n es continua por la derecha: F X1,...,X n ((x 1,..., x n ) + ) = lím... lím F X 1,...,X h h n 0 + n (x 1 + h 1,..., x n + h n ) = F X1,...,X n (x 1,..., x n ) (3) F X1,...,X n (,..., ) = lím x 1... lím x F X 1,...,X n (x 1,..., x n ) = 1 (4) F X1,...,X n (a 1,...,,..., a n ) = lím F X 1,...,X n (x 1,..., x i,..., x n ) = 0 x i }{{} Posición i Como en el caso real, se tiene que F X1,...,X n : R n [0, 1] caracteriza la medida de probabilidad P X1,...,X n : β(r n ) [0, 1] D β(r n ), D P X1,...,X n (D) = P({(X 1,..., X n ) D}) = P({ω Ω : (X 1 (ω),..., X n (ω)) D}) que es llamada ley conjunta de X 1,..., X n 41

46 42 ÍNDICE GENERAL Con esta notacion, las v. a. X 1,..., X n son independientes si y solo si n F X1,...,X n (x 1,..., x n ) = F Xi (x i ) Nota (X 1,..., X n ) : Ω R n ω (X 1 (ω),..., X n (ω)) se llama vector aleatorio; con ley P X1,...,X n en (R n, β(r n )) y distribución F X1,...,X n Definición El vector aleatorio (X 1,..., X n ) se dice abs. continuo si f X1,...,X n : R n R + que x 1 x n verifique: F X1,...,X n (x 1,..., x n ) = f X1,...,X n (z 1,..., z n ) dz 1... dz n, (x 1,..., x n ) R n A f X1,...,X n se le llama (función de) densidad conjunta de (X 1,..., X N ). Necesariamente verifica: f X1,...,X n (0) f X1,...,X n : R n R (1) f X1,...,X n 0 (2) f X1,...,X n (z 1,..., z n ) dz 1... dz n = 1 Además se cumple: d(f X1,...,X n ) dx 1,..., dx n (x 1,..., x n ) = f X1,...,X n (x 1,..., x n ), (x 1,..., x n ) R n Nota En este contexto f Xi se llama la densidad marginal de f X1,...,X n (Lo mismo con F Xi, que se llama la distribución marginal de F X1,...,X n ) Propiedad si y solo si: Las v. a. X 1,..., X n absolutamente continuas (conjuntamente) son independientes n f X1,...,X n (x 1,..., x n ) = f Xi (x i ) Es decir, la densidad conjunta en el producto de las densidades marginales. Demostración Tenemos que las v. a. X 1,..., X n son independientes si y solo si Aplicando F X1,...,X n (x 1,..., x n ) = n F Xi (x i ) d n dx 1,..., dx n se obtiene lo buscado. Reciprocamente, si aplicamos obtenemos lo aquí presentado. x 1 x n a f X1,...,X n Nota Todo lo relativo a densidad conjunta es salvo conjunto de medida de Lebesgue 0 en R n Observemos que si X es abs. continua, entonces Y = X 2 es abs. continua, pero el vector aleatorio (X, X 2 ) no es abs. continuo. Definición La sucesión de v. a. X 1,..., X n son independientes si y solo si n 1; X 1,..., X n son independientes.

47 ÍNDICE GENERAL 43 Cambio de Variables Lo haremos solo en caso de una v. a. (más adelante veremos el caso del vector aleatorio). Teorema Sea X : Ω R v. a. abs. continua con densidad f X y sea h : R R con derivada continua. Entonces: Y = h X : Ω R ω Y (ω) = h X(ω) = h(x(ω)) Es v. a. abs. continua cuya función de densidad f Y f Y (y) = X(y) h 1 ({y}) verifica: 1 h (X(y)) f X(X(y)), y R Luego, si h es inyectiva (como h : R R esto significa h creciente o decreciente), lo anterior es: 1 f Y (y) = h (h 1 (y)) f X(h 1 (y)), y R Nota Sea S = h(x(ω)) R, el rango de h X. Entonces, las 2 anteriores ecuaciones se deben leer y S en vez de y R Por otra parte, se necesita que {z S : h (z) = 0} sea un conjunto de puntos aislados. Donde S abierto, X(Ω) S, (h : S S). Demostración Lo hacemos considerando todas las regularidades que necesitamos. Sea h creciente con h > 0. Aplicando d dy queda: f Y (y) = d(f Y (y)) dy Sea h decreciente con h < 0. Aplicando d dy queda: F Y (y) = P(Y y) = P(h X y) = }{{} h creciente P(X h 1 (y)) = F X (h 1 (y)) = d(f X(h 1 (y))) dy F Y (y) = P(Y y) = P(h X y) = }{{} h decreciente = f X (h 1 1 (y)) h (h 1 (y)) P(X h 1 (y)) = P(X > h 1 (y)) = 1 F X (h 1 (y)) f Y (y) = f X (h 1 1 (y)) h (h 1 (y)) = f X(h 1 1 (y)) h (h 1 (y)) Veamos el caso no inyectivo: Por simpleza solo veremos el caso h 0, excepto por el punto h (x 0 ) = 0, en que la situacion es un maximo o minimo.

48 44 ÍNDICE GENERAL Sea y [0, h(x 0 )], h 1 (y) = {X (y), X + (y)}: Luego: F Y (y) = P(Y y) = P(ω : h(x(ω)) y) = P(ω : X(ω) X (y) X(ω) X + (y)) = P(X X (y)) + P(X X + (y)) }{{} abs. continua = F X (X (y)) + (1 F X (X + (y))) }{{} disjuntos f Y (y) = f X (X (y)) d(x (y)) f X (X + (y)) d(x +(y)) dy dy 1 = f X (X (y)) h (X (y)) + f 1 X(X + (y)) h (X + (y)) = 1 f X (X(y)) h (X(y)) X(y) h 1 (y)

49 Clase 14-29/04/2013 Si X v. a. abs. continua, entonces P X (x R : f X (x) > 0) = 1, pues f X (x)dx = 0. Luego, en caso abs. continuo, podemos suponer que: {x:f X (x)=0} X(Ω) = {x R : f X (x) > 0} Así pues, sea D abierto, {x : f X (x) > 0} D, que lo llamaremos S. Para h : D R con derivada continua y tal que {x D : h (x) = 0} es un conjunto finito de puntos aislados. Se tendra que la v. a. Y = h X verifica el teorema ya enunciado. Y es absolutamente continua con densidad f Y tal que F Y (y) = 0 si y / h(d). Para y h(d): Si h es inyectivo, para y h(d): f Y (y) = 1 f X (X(y)) h (X(y)) X(y) h 1 (y) f Y (y) = f X (h 1 1 (y)) h (h 1 (y)) Ejemplo Sea X v. a. abs. continua con f X (x) > 0 x R. Sea h : R R con h(x) = x 2. Y = h X = X 2 (y). Por lo anterior D = R = {x : f X (x) > 0}; h(d) = R +. Y tiene densidad f Y (y) = 0 si y / R +. Además, podemos considerar f Y (0) = 0 Para y > 0 se tiene: F Y (y) = P(Y y) = P(X 2 y) = P( y X y) = P(X y) P(X y) = F X ( y) F X ( y) d Luego, dy : f Y (y) = f X ( 1 y) 2 y + f X( 1 y) 2 y h 1 (y) = { y, y}, f Y (y) = 1 f X (X(y)) h (X(y)) Complemento a la densidad del vector aleatorio. X(y) h 1 (y) 45

50 46 ÍNDICE GENERAL Proposición Sean X 1, ldots, X n v. a. Supongamos que el vector aleatorio (X 1,..., X n ) tiene densidad conjunta f X1,...,X n, es decir: P(ω : (X 1 (ω),..., X n (ω) C) = f X1,...,X n (x 1,..., x n )dx 1,..., dx n C β(r n ) Entonces cada v.a X 1 es abs. continua con densidad f Xi dada por f Xi (x i ) = + Demostración d dx Esperanza dz 1 + C dz n f X1,...,X n (z 1,..., x i }{{} posicion i,..., z n ), Sin tomar en cuenta F Xi = P(X i x i ) = P(X 1,..., X i x i,..., X n X n ) x = P((X 1,..., X n ) (, x i ) R n 1 ) = h(t)dt = h(x) f Xi (x i ) = df X i (x i ) dx i = + + dz 1 x i dz 1 + dz i + La esperanza es el valor medio o esperado de una v. a. dz n f X1,...,X n (z 1,..., z n ) dz n f X1,...,X n (z 1,..., x i,..., z n ) z i Definición Sea X v. a. Entonces, cuando existe su esperanza es: + E(X) = x df X (x) Sobre la existencia: E(X) = 0 +0 x df X (x) + } {{ } x df X (x) }{{} 0 x df X (x) = x df X (x) > (el y implica que es finito) E(X) no existe si x df X (x) = y 0 0 E(X) existe si x df X (x) > y/o 0 Cada vez que escribamos E(X) supondremos que existe y es finita.

51 ÍNDICE GENERAL 47 Propiedades (a) Si X a = a, v. a. cte.e(x a ) = a (b) Si X = 1 B con B β (funciń indicadora)e(1 B ) = P(B) (c) X 0 E(X) 0; X Y E(X) E(Y ) (d) X, Y v. a. α, β R. Entonces: E(αX + βy ) = αe(x) + βe(y ). (Lineal) (e) Si X es discreta, es decir para cierto I numerable X = a I a1 {X=a}, entonces E(X) = a I ap(x = a) = a I ap X (a) (f) Si X es abs. continua con densidad f X : E(X) = (g) Si h : R R Boreliano, entonces E(h(X)) = (g ) E(X E(X)) = x f X (x)dx h(x) df X (x), df X (x) (h) Si X, Y son v. a. independientes, entonces E(XY ) = E(X)E(Y ). Aún más, si ϕ : R R y ψ : R R son borelianas, entonces ϕ(x), ψ(y ) son independientes, por lo que E(ϕ(X)ψ(Y )) = E(ϕ(X))E(ψ(Y )) (i) Si h : R R es convexa, E(h(X)) h(e(x)). Si es concava, E(h(X)) h(e(x)) (j) Si X n X puntualmente y monotonamente, entonces E(X n ) E(X). Si X n X puntualmente y monotonamente, entonces E(X n ) E(X) Si X n }{{} X puntualmente y se tiene X n Y con E(Y ) <, entonces E(X n ) }{{} E(X)

52 48 ÍNDICE GENERAL

53 Clase 15-02/05/2013 Demostración Propiedades de la clase anterior (a) Sea X a = a v. a. cte. F Xa (x) = P(X a a) = P(a { X a ) 1 Si x a = 1 a = 0 Si x < a = escalón de Heaviside E(X a ) = x df Xa (x) = a (F Xa (a) F Xa (a )) = a }{{} =1 0 Si x < 0 (b) Sea B β, X = 1 B F X (x) = P(ω : 1 B (ω) x) = P(B c ) = 1 P(B) Si x [0, 1) 1 Si x 1 + Entonces E(1 B ) = xdf X (x) = 0(1 P(B)) + 1(1 (1 P(B))) = P(B) (e) X discreta a valores en I R numerable. X = a I P(X = a) Entonces E(X) = xdf X (x) = a I a(f X (a) F X (a )) = a I ap(x = a) (h) Probemoslo solo para X = 1 B y Y = 1 D con B, D β. 1 B y 1 D independientes B y D independientes. E(1 B 1 D ) = E(1 B D ) = P(B D) = P(B)P(D) = E(1 B )E(1 D ) Propiedades (a) Si X 1,..., X n son v. a. y h : R n R función boreliana, entonces h(x 1 (ω),..., X n (ω) : Ω R es v. a. Se tiene ω h(x 1,..., X n ) E(h(X 1,..., X n )) = h(x 1,..., X n ) df X1,...,X n (x 1,..., x n ) R n Si los X 1,..., X n son independientes se tiene E(h(X 1,..., X n )) = h(x 1,..., X n ) df X1 (x 1 )... df Xn (x n ) R n 49

54 50 ÍNDICE GENERAL n Y si además h(x 1,..., X n ) = h i (x i ) queda n n E(h(X 1,..., X n )) = h i (x i ) df X1 (x 1 )... df Xn (x n ) = R n (b) Se tiene h 0, E(X) = 0 P(X = 0) = 1 R n h i (x i ) df Xi (x i ) Nota P(X = a) = 1 se dice X = a normalmente. Demostración Como X 0, si P(X = 0) < 1, a > 0 tal que P(X a) > 0. Además, como X 0 se tiene X(ω) a 1 {X a}. Luego, E(X) E(a)E(1 {X a} ) = ap(x a) lo que es una contradicción. Si X v. a. notamos µ X = E(X). En general escribiremos m k = E(X k ) para k 1 y los llamamos momentos de orden k. Así pues m 1 = µ X Propiedades E(X 2k ) (E(X)) 2k, k 1 Si X 0, entonces E(X k ) (E(X)) k, k 1 Es decir, m 2k m 2k 1 y si X 0, m k m k 1 Demostración Por (i) y como g(x) = x 2k es convexa para k 1 se deduce la primera. La segunda se deduce de g : R + R, g(x) = x k con k 1 es convexa y de X(Ω) = R +. Varianza Definición Sea X v. a. Su varianza es V ar(x) = E((X µ X ) 2 ) = E((X E(X)) 2 ) Propiedades Para X v. a. se verifica: (1) V ar(x) 0 (2) V ar(x) > 0 P(X = µ X ) = 1 X = a cte. con probabilidad 1. (3) Si α, β R, V ar(α + βx) = β 2 V ar(x) (4) V ar(x) = E(X 2 ) (E(X)) 2 (5) La función desviación cuadrática ϕ(c) = E((X C) 2 ) alcanza su minimo en C = µ X y ϕ(µ X ) = V ar(x) (6) Si X, Y son independientes, entonces V ar(x +Y ) = V ar(x)+v ar(y ). Más generalmente, si n n X 1,..., X n son v. a. independientes y a 0,..., a n R, se tiene V ar(a 0 + a i x i ) = a 2 i V ar(x i ) Nota V ar(x) esta definida si E(X) es finita. V ar(x) es finita si E(X) y E(X 2 ) son finitas. Para todo efecto consideraremos que V ar(x) existe y es finita.

55 ÍNDICE GENERAL 51 Demostración (1) (X µ X ) 2 0 V ar(x) = E((X µ X ) 2 ) 0 (2) Sea Y = (X µ X ) 2, se tiene Y 0. E(Y ) = V ar(x). Si V ar(x) = 0 se tiene E(Y ) = 0, y se concluye P(Y = 0) = 1, esto es P(X = µ X ) = 1. Además P(X = a) = 1 para cierto a R se tiene E(X) = a, de donde P(X = µ X ) = 1 y V ar(x) = E((X µ X ) 2 ) = 0. Juntando todo esto se tienen las equivalencias. (3) Sea Y = α + βx. Por linealidad E(Y ) = α + βe(x), es decir, µ Y = α + βe(x) = α + βµ X. Luego, V ar(α + βx) = V ar(y ) = E((α + βx α βµ X ) 2 ) = E(β 2 (X µ X ) 2 ) = β 2 V ar(x) (4) V ar(x) = E((X µ X ) 2 ) = E(X 2 2Xµ X + µ 2 X) = E(X 2 ) 2E(X)µ X + µ 2 X = E(X 2 ) µ 2 X (5) ϕ(c) = E((X C) 2 ) = E(X 2 2CX + C 2 ) = E(X 2 ) 2Cµ X + C 2. Derivando con respecto a C, obtenemos C = µ X. Volviendo a derivar con respecto a C obtenemos 2 y 2 > 0, luego en C = µ X alcanza su mínimo y por definición ϕ(µ X ) = V ar(x). (6) Sean X, Y v. a. indep. Se tiene µ x+y = µ X + µ Y. V ar(x + Y ) = E((X + Y µ X µ y ) 2 ) = E((X µ X ) 2 + 2(X µ X )(Y µ Y ) + (Y µ Y ) 2 ) = V ar(x) + 2E((X µ x )(Y µ Y )) + V ar(y ) Como X, Y indep., E(X µ x )E(Y µ Y ) que es 0 por (g ). Luego, V ar(x+y ) = V ar(x)+v ar(y ) Covarianza Definición Si X, Y son v. a., su Covarianza es: Cov(X, Y ) = E((X µ x )(Y µ Y )) Propiedades (1) V ar(x + Y ) = V ar(x) + 2Cov(X, Y ) + V ar(y ) (2) Cov(α + βx, γ + δy ) = βδcov(x, Y ) (3) Cov(X, X) = V ar(x) Demostración (1) Por lo hecho en (6) (2) Por un desarrollo análogo (3) Directa Definición Una v. a. Z tal que E(Z) = 0 se dice centrada Una v. a. Z tal que E(Z) = 0 y V ar(z) = 1 se dice normalizada. Propiedades Sea X v. a. Si E(X) es finita, entonces Z = X E(X) es centrada. Sea X v. a. Si E(X) es finita y 0 < V ar(x) <, entonces Z = X E(X) V ar(x) es normalizada.. Nota V ar(x) > 0 quiere decir que X no es constante. Demostración Punto 2: V ar ( ) X E(X) V ar(x) = }{{} (3) V ar(x) V ar(x) = 1

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

1. Propiedades básicas de las medidas

1. Propiedades básicas de las medidas AMARUN www.amarun.net Comisión de Pedagogía - Diego Chamorro Teoría de la medida (Nivel 2). Lección n 2: σ-álgebras y medidas EPN, verano 2009 1. Propiedades básicas de las medidas Marco de trabajo: la

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial

Más detalles

Notas de Probabilidades y

Notas de Probabilidades y Notas de Probabilidades y Estadística Capítulos 1 al 12 Víctor J. Yohai vyohai@dm.uba.ar Basadas en apuntes de clase tomados por Alberto Déboli, durante el año 2003 Versión corregida durante 2004 y 2005,

Más detalles

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias Universidad de Chile Facultad De Ciencias Físicas y Matemáticas MA3403 - Probabilidades y Estadística Prof. Auxiliar: Alberto Vera Azócar. albvera@ing.uchile.cl Vectores Aleatorios 1. Vectores Aleatorios

Más detalles

1. Medida Exterior. Medida de Lebesgue en R n

1. Medida Exterior. Medida de Lebesgue en R n 1. La integral de Lebesgue surge del desarrollo de la integral de Riemann, ante las dificultades encontradas en las propiedades de paso al ĺımite para calcular la integral de una función definida como

Más detalles

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Vectores aleatorios Probabilidad y Estadística Vectores aleatorios Federico De Olivera Cerp del Sur-Semi Presencial curso 2015 Federico De Olivera (Cerp del Sur-Semi Presencial) Probabilidad y Estadística

Más detalles

Terminaremos el capítulo con una breve referencia a la teoría de cardinales.

Terminaremos el capítulo con una breve referencia a la teoría de cardinales. TEMA 5. CARDINALES 241 Tema 5. Cardinales Terminaremos el capítulo con una breve referencia a la teoría de cardinales. Definición A.5.1. Diremos que el conjunto X tiene el mismo cardinal que el conjunto

Más detalles

TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES

TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES TEMA 1 VARIABLES ALEATORIAS MULTIDIMENSIONALES Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el espacio muestral asociado a un experimento aleatorio en un espacio

Más detalles

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos Definición Dado un espacio muestral S, diremos que X =(X 1, X 2,, X k ) es un vector aleatorio de dimension k si cada una de sus componentes es una variable aleatoria X i : S R, para i = 1, k. Notemos

Más detalles

Modelo de Probabilidad

Modelo de Probabilidad Capítulo 1 Modelo de Probabilidad 1.1 Definiciones y Resultados Básicos Sea Ω un conjunto arbitrario. Definición 1.1 Una familia no vacía F de subconjuntos de Ω es llamada una σ-álgebra de subconjuntos

Más detalles

Continuidad y monotonía

Continuidad y monotonía Tema 14 Continuidad y monotonía Generalizando lo que se hizo en su momento para sucesiones, definiremos la monotonía de una función, en forma bien fácil de adivinar. Probaremos entonces dos resultados

Más detalles

Teorema de Hahn-Banach

Teorema de Hahn-Banach Capítulo 3 Teorema de Hahn-Banach 3.1. Introducción Una vez introducidos los espacios vectoriales más importantes donde se tiene una estructura métrica a saber, los espacios de Hilbert y los espacios de

Más detalles

TEMA 1.- PROBABILIDAD.-CURSO 2016/2017

TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 TEMA 1.- PROBABILIDAD.-CURSO 2016/2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

Práctica 3 Esperanza Condicional

Práctica 3 Esperanza Condicional 1. Generalidades Práctica 3 Esperanza Condicional 1. Sea (X i ) i I una familia de variables aleatorias definidas sobre un mismo espacio medible (Ω, F) y sea Y otra variable aleatoria en este espacio.

Más detalles

En primer lugar, vamos a precisar un concepto al que ya nos hemos referido anteriormente, el de σ-álgebra.

En primer lugar, vamos a precisar un concepto al que ya nos hemos referido anteriormente, el de σ-álgebra. Capítulo 20 Conjuntos de Borel Hemos demostrado ya que la familia M de los conjuntos medibles contiene a todos los abiertos de R n y, por tanto, a todos los conjuntos que podamos formar a partir de los

Más detalles

Continuidad y Continuidad Uniforme. Aplicaciones lineales continuas.

Continuidad y Continuidad Uniforme. Aplicaciones lineales continuas. Continuidad y Continuidad Uniforme. Aplicaciones lineales continuas. Beatriz Porras 1 Límites Las definiciones de ĺımite de funciones de varias variables son similares a las de los ĺımites de funciones

Más detalles

Inducción Matemática Conjuntos Funciones. Matemática Discreta. Agustín G. Bonifacio UNSL. Repaso de Inducción, Conjuntos y Funciones

Inducción Matemática Conjuntos Funciones. Matemática Discreta. Agustín G. Bonifacio UNSL. Repaso de Inducción, Conjuntos y Funciones UNSL Repaso de Inducción, y Inducción Matemática (Sección 1.7 del libro) Supongamos que queremos demostrar enunciados del siguiente tipo: P(n) : La suma de los primeros n números naturales es n(n+1)

Más detalles

Funciones convexas Definición de función convexa. Tema 10

Funciones convexas Definición de función convexa. Tema 10 Tema 10 Funciones convexas Los resultados obtenidos en el desarrollo del cálculo diferencial nos permiten estudiar con facilidad una importante familia de funciones reales de variable real definidas en

Más detalles

1. Funciones Medibles

1. Funciones Medibles 1. Medibles Medibles simples... Hasta ahora hemos estudiado la medida de Lebesgue definida sobre los conjuntos de R n y sus propiedades. Vamos a aplicar ahora esta teoría al estudio de las funciones escalares

Más detalles

sup si A no es acotado.

sup si A no es acotado. Capítulo 6 Espacios completos 1. El teorema de Cantor En este capítulo estudiaremos más a fondo los espacios métricos completos. Lo primero que haremos es establecer la equivalencia entre completitud y

Más detalles

Formulaciones equivalentes del Axioma de Elección

Formulaciones equivalentes del Axioma de Elección Formulaciones equivalentes del Axioma de Elección MARU SARAZOLA Resumen En este documento presentamos algunas formulaciones equivalentes del axioma de elección. En la primera sección, se presenta el enunciado

Más detalles

520142: ALGEBRA y ALGEBRA LINEAL

520142: ALGEBRA y ALGEBRA LINEAL 520142: ALGEBRA y ALGEBRA LINEAL Segundo Semestre 2008, Universidad de Concepción CAPITULO 10: Espacios Vectoriales DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición

Más detalles

Espacios Vectoriales

Espacios Vectoriales Espacios Vectoriales Espacios Vectoriales Verónica Briceño V. noviembre 2013 Verónica Briceño V. () Espacios Vectoriales noviembre 2013 1 / 47 En esta Presentación... En esta Presentación veremos: Espacios

Más detalles

Espacios compactos. 7.1 Espacios compactos

Espacios compactos. 7.1 Espacios compactos 58 Capítulo 7 Espacios compactos 7.1 Espacios compactos Definición 7.1.1 (Recubrimiento). Sea X un conjunto y sea S X. Un recubrimiento de S es una familia A = {A i } i I de subconjuntos de X tales que

Más detalles

Teorema del Valor Medio

Teorema del Valor Medio Tema 6 Teorema del Valor Medio Abordamos en este tema el estudio del resultado más importante del cálculo diferencial en una variable, el Teorema del Valor Medio, debido al matemático italo-francés Joseph

Más detalles

Continuidad y monotonía

Continuidad y monotonía Tema 14 Continuidad y monotonía Generalizando lo que se hizo en su momento para sucesiones, definiremos la monotonía de una función, en forma bien fácil de adivinar. Probaremos entonces dos resultados

Más detalles

Conjuntos, relaciones y funciones Susana Puddu

Conjuntos, relaciones y funciones Susana Puddu Susana Puddu 1. Repaso sobre la teoría de conjuntos. Denotaremos por IN al conjunto de los números naturales y por ZZ al de los enteros. Dados dos conjuntos A y B decimos que A está contenido en B o también

Más detalles

10. Series de potencias

10. Series de potencias FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 7-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San

Más detalles

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones: FACULTAD DE CIENCIAS EXACTAS Y NATURALES UNIVERSIDAD DE BUENOS AIRES COMPLEMENTOS DE ANÁLISIS MAESTRíA EN ESTADíSTICA MATEMÁTICA SEGUNDO CUATRIMESTRE 2007 PRÁCTICA 7 1. Usando sólo la definición de derivada,

Más detalles

Cálculo de Probabilidades II Preguntas Tema 1

Cálculo de Probabilidades II Preguntas Tema 1 Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga

Más detalles

Introducción a la topología

Introducción a la topología Introducción a la topología Beatriz Abadie CENTRO DE MATEMÁTICAS FACULTAD DE CIENCIAS UNIVERSIDAD DE LA REPÚBLICA Agosto de 2013 i Índice general Capítulo 1. Elementos de la teoría de conjuntos 1 1.1.

Más detalles

Espacios métricos completos

Espacios métricos completos 5 Espacios métricos completos Comenzamos introduciendo las sucesiones de Cauchy, que relacionamos con las sucesiones convergentes. En el caso de que coincidan, se trata de un espacio métrico completo.

Más detalles

Teoremas de Convergencia

Teoremas de Convergencia Capítulo 24 Teoremas de Convergencia El teorema de la convergencia monótona (Lema 21.3) establece ciertas condiciones sobre una sucesión de funciones medibles para que se puedan permutar los símbolos y

Más detalles

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice

Más detalles

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso

Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio

Más detalles

Cálculo de Probabilidades II Preguntas Tema 2

Cálculo de Probabilidades II Preguntas Tema 2 Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución

Más detalles

6-1. Dos preguntas sobre 100 tiradas de dado

6-1. Dos preguntas sobre 100 tiradas de dado Semana 6 Esperanza y Varianza 6-1. Dos preguntas sobre 100 tiradas de dado 6-2. Esperanza 6-3. Propiedades básicas de la esperanza 6-4. Distancia esperada a la media 6-5. Varianza 6-6. Demostraciones 6-1.

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

La Medida de Lebesgue. Problema de la Medida

La Medida de Lebesgue. Problema de la Medida Capítulo 19 La Medida de Lebesgue. Problema de la Medida Hemos demostrado en el capítulo anterior que la medida exterior de Lebesgue es una medida sobre la familia M de los conjuntos medibles. Por definición,

Más detalles

Teoría de la Probabilidad Tema 2: Teorema de Extensión

Teoría de la Probabilidad Tema 2: Teorema de Extensión Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada

Más detalles

Tema 5 Variables aleatorias: distribuciones de probabilidad y características.

Tema 5 Variables aleatorias: distribuciones de probabilidad y características. Tema 5 Variables aleatorias: distribuciones de probabilidad y características. 1. Introducción Según se ha reflejado hasta el momento, el espacio muestral asociado a un experimento aleatorio puede ser

Más detalles

Estructuras Algebraicas

Estructuras Algebraicas Tema 1 Estructuras Algebraicas Definición 1 Sea A un conjunto no vacío Una operación binaria (u operación interna) en A es una aplicación : A A A Es decir, tenemos una regla que a cada par de elementos

Más detalles

Teorema de Lagrange. En esta sección demostramos algunos hechos básicos sobre grupos, que se pueden deducir de la definición

Teorema de Lagrange. En esta sección demostramos algunos hechos básicos sobre grupos, que se pueden deducir de la definición Teorema de Lagrange Capítulo 3 3.1 Introducción En este capítulo estudiaremos uno de los teoremas más importantes de toda la teoría de grupos como lo es el Teorema de Lagrange. Daremos en primer lugar

Más detalles

Espacios compactos. Capítulo Cubiertas. En este capítulo estudiaremos el concepto de compacidad en un espacio métrico.

Espacios compactos. Capítulo Cubiertas. En este capítulo estudiaremos el concepto de compacidad en un espacio métrico. Capítulo 3 Espacios compactos 1. Cubiertas En este capítulo estudiaremos el concepto de compacidad en un espacio métrico. Definición 3.1. Sea (X, d) un espacio métrico y A X. Una cubierta de A es una familia

Más detalles

Apuntes sobre la integral de Lebesgue

Apuntes sobre la integral de Lebesgue Apuntes sobre la integral de Lebesgue Miguel Lacruz Martín Universidad de Sevilla 1. Medida de Lebesgue 1.1. Introducción La longitud l(i) de un intervalo I R se define habitualmente como la distancia

Más detalles

Espacios topológicos. 3.1 Espacio topológico

Espacios topológicos. 3.1 Espacio topológico Capítulo 3 Espacios topológicos 3.1 Espacio topológico Definición 3.1.1. Un espacio topológico es un par (X, τ), donde X es un conjunto, y τ es una familia de subconjuntos de X que verifica las siguientes

Más detalles

Definición 1 Sean E, F y G tres espacios vectoriales. Una transformación ϕ : E F G se llama bilineal si satisface las siguientes condiciones:

Definición 1 Sean E, F y G tres espacios vectoriales. Una transformación ϕ : E F G se llama bilineal si satisface las siguientes condiciones: Producto tensorial 0.1 Transformaciones multilineales Definición 1 Sean E, F y G tres espacios vectoriales. Una transformación ϕ : E F G se llama bilineal si satisface las siguientes condiciones: ϕ(λx

Más detalles

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. Regla de la cadena Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de

Más detalles

Probabilidades y Estadísticas

Probabilidades y Estadísticas Facultad de Ciencias Físicas y Matemtáticas, Universidad de Chile Apuntes de Clases Profesor: Roberto Cortez Tomás Wolf y Pedro Franz 6 de febrero de 2014 Santiago, Chile. Índice general I Probabilidades

Más detalles

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones

Más detalles

Nociones topológicas elementales de R n

Nociones topológicas elementales de R n Nociones topológicas elementales de R n 1 Espacio vectorial R n Consideremos el conunto R n de las n-uplas de números reales, donde n es un número natural arbitrario fio. Los elementos de R n, que llamamos

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones

Semana 09 [1/28] Sucesiones. 29 de abril de Sucesiones Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará

Más detalles

Tema 4: Variable Aleatoria Bidimensional

Tema 4: Variable Aleatoria Bidimensional Curso 2016-2017 Contenido 1 Definición de Variable Aleatoria Bidimensional 2 Distribución y fdp Conjunta 3 Clasificación de Variables Aleatorias Bidimensionales 4 Distribuciones Condicionales 5 Funciones

Más detalles

Comisión de Pedagogía - Diego Chamorro Análisis Funcional (Nivel 2).

Comisión de Pedagogía - Diego Chamorro Análisis Funcional (Nivel 2). AMARUN www.amarun.org Comisión de Pedagogía - Diego Chamorro Análisis Funcional (Nivel 2). Lección n 3: Lema de Baire y Teorema clásicos del Análisis Funcional EPN, verano 2012 Definición 1 (Espacio de

Más detalles

Tema 1: Conjuntos. Miguel Ángel Olalla Acosta Departamento de Álgebra Universidad de Sevilla. Septiembre de 2017

Tema 1: Conjuntos. Miguel Ángel Olalla Acosta Departamento de Álgebra Universidad de Sevilla. Septiembre de 2017 Tema 1: Conjuntos Miguel Ángel Olalla Acosta miguelolalla@us.es Departamento de Álgebra Universidad de Sevilla Septiembre de 2017 Olalla (Universidad de Sevilla) Tema 1: Conjuntos Septiembre de 2017 1

Más detalles

Tema 2: Variables Aleatorias Unidimensionales

Tema 2: Variables Aleatorias Unidimensionales Tema 2: Variables Aleatorias Unidimensionales Teorı a de la Comunicacio n Curso 27-28 Contenido 1 Concepto de Variable Aleatoria 2 Función Distribución 3 Clasificación de Variables Aleatorias 4 Función

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con

Más detalles

Capítulo 6: Variable Aleatoria Bidimensional

Capítulo 6: Variable Aleatoria Bidimensional Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el

Más detalles

: k }, es decir. 2 k. k=0

: k }, es decir. 2 k. k=0 FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San

Más detalles

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Tema 6 - Introducción 1 Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Generalización Tema 6. Variables aleatorias unidimensionales

Más detalles

3er Concurso Unversitario de Matemáticas Galois-Noether 2013 Segunda Etapa

3er Concurso Unversitario de Matemáticas Galois-Noether 2013 Segunda Etapa 3er Concurso Unversitario de Matemáticas Galois-Noether 013 Segunda Etapa Sábado 17 de agosto 013 Bienvenido a la Segunda Etapa del Concurso Universitario de Matemáticas Galois-Noether Responde a las preguntas

Más detalles

Conjuntos, Aplicaciones y Relaciones

Conjuntos, Aplicaciones y Relaciones Conjuntos, Aplicaciones y Relaciones Curso 2017-2018 1. Conjuntos Un conjunto será una colección de objetos; a cada uno de estos objetos lo llamaremos elemento del conjunto. Si x es un elemento del conjunto

Más detalles

Tema 1: Conjuntos. Miguel Ángel Olalla Acosta Departamento de Álgebra Universidad de Sevilla. Septiembre de 2016

Tema 1: Conjuntos. Miguel Ángel Olalla Acosta Departamento de Álgebra Universidad de Sevilla. Septiembre de 2016 Tema 1: Conjuntos Miguel Ángel Olalla Acosta miguelolalla@us.es Departamento de Álgebra Universidad de Sevilla Septiembre de 2016 Olalla (Universidad de Sevilla) Tema 1: Conjuntos Septiembre de 2016 1

Más detalles

Funciones de Clase C 1

Funciones de Clase C 1 Capítulo 7 Funciones de Clase C 1 Vamos a considerar ahora la extensión a varias variables del concepto de función de clase C 1. Cada vez que establezcamos una propiedad de las funciones diferenciables,

Más detalles

2 Espacio muestral y σ-álgebra de sucesos

2 Espacio muestral y σ-álgebra de sucesos 1 Introducción ESPACIOS DE PROBABILIDAD Julián de la Horra Departamento de Matemáticas U.A.M. Los espacios de probabilidad son las estructuras que se utilizan en Matemáticas para estudiar los fenómenos

Más detalles

Modelos Estocásticos I. Notas de Curso. Cimat, A.C.

Modelos Estocásticos I. Notas de Curso. Cimat, A.C. Modelos Estocásticos I Notas de Curso Joaquín Ortega Sánchez Víctor Rivero Mercado Cimat, A.C. Índice general 1. Introducción a la Teoría de Probabilidad 1 1.1. Introducción............................................

Más detalles

1 Esperanza Matemática

1 Esperanza Matemática 1 Esperanza Matemática Los conceptos de σ-álgebra, medida (en particular las medidas de probabilidad), y función medible (en particular las variables aleatorias), han surgido de los esfuerzos hechos en

Más detalles

Semana02[1/23] Conjuntos. 9 de marzo de Conjuntos

Semana02[1/23] Conjuntos. 9 de marzo de Conjuntos Semana02[1/23] 9 de marzo de 2007 Introducción Semana02[2/23] La teoría de conjuntos gira en torno a la función proposicional x A. Los valores que hacen verdadera la función proposicional x A son aquellos

Más detalles

El grupo lineal proyectivo. Homologías. Afinidades.

El grupo lineal proyectivo. Homologías. Afinidades. Tema 3- El grupo lineal proyectivo Homologías Afinidades 31 El grupo lineal proyectivo Recordamos que en el tema anterior hemos definido, para una variedad lineal proyectiva L P n no vacía, el grupo lineal

Más detalles

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

Principio de acotación uniforme

Principio de acotación uniforme Capítulo 4 Principio de acotación uniforme 4.1. Introducción. Teorema de Baire En este último capítulo vamos a establecer una serie de resultados sobre aplicaciones lineales y continuas entre espacios

Más detalles

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones.

A. Probabilidad. Resultados. Elementos ω del espacio muestral, también llamados puntos muestrales o realizaciones. Tema 1. Espacios de Probabilidad y Variables Aleatorias: Espacios de Probabilidad. 1 A. Probabilidad. Un experimento aleatorio tiene asociados los siguientes elementos: Espacio muestral. Conjunto Ω de

Más detalles

Semana 14 [1/19] Polinomios. 8 de junio de Polinomios

Semana 14 [1/19] Polinomios. 8 de junio de Polinomios Semana 14 [1/19] 8 de junio de 2007 División Semana 14 [2/19] Teorema de la División Al ser (K[x], +, ) un anillo, ocurre un fenómeno similar al de : Las divisiones deben considerar un posible resto. Teorema

Más detalles

Estructuras algebraicas. Departamento de Álgebra. Apuntes de teoría

Estructuras algebraicas. Departamento de Álgebra.  Apuntes de teoría ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 2015/2016 Apuntes de teoría Tema 1: Grupos y subgrupos. 1.1. Introducción Definición 1.1. Un grupo es un par (G, ), donde G es un conjunto no vacío,

Más detalles

Práctica 11 Probabilidades

Práctica 11 Probabilidades Matemáticas Especiales II Año 2014 Prof: T. S. Grigera JTP: V. Fernández AD: S. Franchino Práctica 11 Probabilidades Esta práctica abarca los siguientes temas: a) Definiciones y axiomas. Interpretación

Más detalles

Anillo de polinomios con coeficientes en un cuerpo

Anillo de polinomios con coeficientes en un cuerpo Capítulo 2 Anillo de polinomios con coeficientes en un cuerpo En el conjunto Z se ha visto cómo la relación ser congruente módulo m para un entero m > 1, es compatible con las operaciones suma y producto.

Más detalles

Diferenciales de Orden Superior

Diferenciales de Orden Superior Capítulo 10 Diferenciales de Orden Superior En este capítulo extenderemos a las funciones definidas sobre espacios normados el concepto de función r-veces diferenciable y de clase C r y obtendremos las

Más detalles

Práctica 2: Cardinalidad. Propiedades básicas de los conjuntos

Práctica 2: Cardinalidad. Propiedades básicas de los conjuntos Cálculo Avanzado Segundo Cuatrimestre de 2014 Práctica 2: Cardinalidad Propiedades básicas de los conjuntos Ejercicio 1. Demostrar las siguientes igualdades de conjuntos: i) B i I A i = i I(B A i ). ii)

Más detalles

Tema 3. Probabilidad y variables aleatorias

Tema 3. Probabilidad y variables aleatorias 1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

Cálculo de probabilidad. Tema 1: Combinatoria y probabilidad

Cálculo de probabilidad. Tema 1: Combinatoria y probabilidad Cálculo de probabilidad Tema 1: Combinatoria y probabilidad Guión Guión 1.1. Análisis combinatorio Regla de multiplicación Este es el método de conteo más sencillo que existe. Supongamos que realizamos

Más detalles

Topología en R n. Continuidad de funciones de varias variables

Topología en R n. Continuidad de funciones de varias variables . Continuidad de funciones de varias variables María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I (1 o Grado en Ingeniería Electrónica Industrial y Automática) M. Muñoz (U.P.C.T.) Continuidad

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 3

Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias

Más detalles

2. El Teorema del Valor Medio

2. El Teorema del Valor Medio 2.24 45 2. El Teorema del Valor Medio Comenzaremos esta sección recordando dos versiones del teorema del valor medido para funciones de 1-variable y por tanto ya conocidas: 2.22 Sea f : [a, b] R R una

Más detalles

Espacios compactos. Se pretenden alcanzar las siguientes competencias específicas:

Espacios compactos. Se pretenden alcanzar las siguientes competencias específicas: 4 Espacios compactos En este capítulo introducimos los conceptos de espacio y subespacio compacto. Se estudian propiedades de los conjuntos compactos, así como relación entre la compacidad y las funciones

Más detalles

1. Conjuntos y funciones

1. Conjuntos y funciones Centro de Matemática Facultad de Ciencias Universidad de la República Introducción a la Topología Curso 2016 PRACTICO 1: CONJUNTOS. 1 1. Conjuntos y funciones Ejercicio 1. Si I es un conjunto y A α es

Más detalles

Es claro que es una relación de equivalencia. Para ver que tener la misma cardinalidad y la cardinalidad están bien definidas queremos ver que

Es claro que es una relación de equivalencia. Para ver que tener la misma cardinalidad y la cardinalidad están bien definidas queremos ver que Capítulo II Cardinalidad Finita II.1. Cardinalidad Definimos I n para n N como I n = {k N : 1 k n}. En particular I 0 =, puesto que 0 < 1. Esto es equivalente a la definición recursiva { si n = 0 I n =

Más detalles

Pauta Control 1 - MA2A1 Agosto a) Estudiar si las siguientes denen una norma en R 2 : 3) (x, y) = x + 3

Pauta Control 1 - MA2A1 Agosto a) Estudiar si las siguientes denen una norma en R 2 : 3) (x, y) = x + 3 Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Matemática Pauta Control 1 - MA2A1 Agosto 2008 Profesor: Marcelo Leseigneur Auxiliares: Cristopher Hermosilla

Más detalles

Espacios vectoriales

Espacios vectoriales Espacios vectoriales [Versión preliminar] Prof. Isabel Arratia Z. Algebra Lineal 1 En el estudio de las matrices y, en particular, de los sistemas de ecuaciones lineales realizamos sumas y multiplicación

Más detalles

Conjuntos Medibles. Preliminares

Conjuntos Medibles. Preliminares Capítulo 18 Conjuntos Medibles Preliminares En el capítulo anterior vimos que la medida exterior de Lebesgue no resulta σ-aditiva en todo R n. Ahora vamos a construir una familia M de subconjuntos de R

Más detalles

F-ESPACIOS. 1.- Introducción

F-ESPACIOS. 1.- Introducción F-ESPACIOS 1.- Introducción Recordemos que un subconjunto A de un espacio topológico X se llama diseminado o raro (nowhere dense en ingés) si A=. Un subconjunto que se pueda escribir como unión numerable

Más detalles

VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios

VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios VECTORES ALEATORIOS 1 Introducción En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias características simultáneamente, como por ejemplo la velocidad de transmisión

Más detalles

Introducción a la Teoría de Probabilidades

Introducción a la Teoría de Probabilidades Capítulo 1 Introducción a la Teoría de Probabilidades 1.1. Introducción El objetivo de la Teoría de Probabilidades es desarrollar modelos para experimentos que están gobernados por el azar y estudiar sus

Más detalles

Curso intermedio de PROBABILIDAD

Curso intermedio de PROBABILIDAD Curso intermedio de PROBABILIDAD Luis Rincón Departamento de Matemáticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 México DF Mayo 2005 El presente texto corresponde a la versión electrónica

Más detalles

Operaciones extendidas de conjuntos

Operaciones extendidas de conjuntos 234 A. GENERALIDADES DE TEORÍA DE CONJUNTOS Tema 3. Operaciones extendidas de conjuntos En este tema extenderemos las operaciones de conjuntos anteriormente definidas a familias arbitrarias de conjuntos.

Más detalles

Semana05[1/14] Relaciones. 28 de marzo de Relaciones

Semana05[1/14] Relaciones. 28 de marzo de Relaciones Semana05[1/14] 28 de marzo de 2007 Introducción Semana05[2/14] Ya en los capítulos anteriores nos acercamos al concepto de relación. Relación Dados un par de conjuntos no vacíos A y B, llamaremos relación

Más detalles