6-1. Dos preguntas sobre 100 tiradas de dado
|
|
- Felisa Hidalgo Castro
- hace 6 años
- Vistas:
Transcripción
1 Semana 6 Esperanza y Varianza 6-1. Dos preguntas sobre 100 tiradas de dado 6-2. Esperanza 6-3. Propiedades básicas de la esperanza 6-4. Distancia esperada a la media 6-5. Varianza 6-6. Demostraciones 6-1. Dos preguntas sobre 100 tiradas de dado Si tiro un dado 100 veces y sumo los resultados En qué rango de valores es razonable esperar que caiga la suma? Si la suma da 531 Puedo concluir con bastante confianza que el dado está cargado? Para responder estas preguntas podemos hacer un modelo probabilístico para un dado ideal (balanceado) como el que sigue: Tomamos como espacio muestral el conjunto Ω = {1, 2, 3, 4, 5, 6} 100 de tiras de 100 números del 1 al 6. Consideramos en Ω la probabilidad P que asigna a todos los eventos elementales la misma probabilidad, i.e. 1/ Los resultados de cada tirada individual del dado son representados en el modelo por las variables X i (ω) que asignan a cada ω Ω su i-ésima coordenada (donde i = 1, 2, 3,..., 100). La variable de interés para las preguntas es X = X 1 + X 100. Notemos que la variable aleatoria X toma los valores entre 100 y 600 pero no todos con la misma probabilidad. Las preguntas planteadas podrían responderse razonablemente si tuvieramos un método para calcular un rango de valores R [100, 600] tal que P(X / R) sea menor que un valor prefijado (de modo que estamos bastante seguros que la suma de cien tiradas de dado caerán en el rango R). 6-1
2 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-2 Una respuesta a fuerza bruta Notemos que la variable X que queremos analizar toma los 501 valores naturales entre 100 y 600. Una forma de responder a las preguntas anteriores es hacer lo siguiente: 1. Calcular con bastante precisión (con la ayuda de una computadora) la probabilidad P(X = k) para cada valor k {100, 101,..., 600}. 2. Ordenar los números enteros entre 100 y 600 en orden de probabilidad decreciente. Es decir encontrar una secuencia k 1, k 2,..., k 501 de forma que P(X = k 1 ) P(X = k 2 ) P(X = k 501 ). 3. Dado un valor pequeño p prefijado calcular el rango k 1,..., k n con el n más pequeño tal que n P(X = k i ) 1 p. El rango de valores R = {k 1,..., k n } i=1 es la mejor respuesta a la pregunta de encontrar una región donde X caerá con probabilidad mayor a 1 p. Este método tiene un defecto que es que requiere muchos cálculos. Notemos que P(X = k) = N k 6 100, donde N k es el número de formas diferentes de escribir k como suma de 100 números enteros entre 1 y 6. El denominador es un número de 78 cifras. Y el numerador N k depende de k de una forma no muy obvia (puede verse que es el coeficiente de x k en el polinomio (x + x 2 + x 3 + x 4 + x 5 + x 6 ) 100 que tiene grado 600). En nuestro caso particular el método aún está al alcance de lo que es posible hacer con una computadora. De hecho con este método se obtiene que la variable X tiene probabilidad mayor a 0,99 de caer en el rango entre 307 y 394. Sin embargo no es dificil imaginar modelos un poco más complicados (o el mismo modelo aumentando el número de tiradas) para los cuales este método ya no es práctico ni siquiera con una computadora. En lo que sigue encontraremos métodos menos exáctos para lidiar con el mismo problema, pero que requieren muchísimo menos poder de cómputo (incluso es factible hacer los cálculos necesarios mentalmente o a mano en muchas situaciones de interés) Esperanza La esperanza (o valor esperado) de una variable aleatoria es un número que se le asigna a dicha variable. Representa (como justificaremos mejor más adelante) el resultado teórico de tomar el promedio de muchas copias independientes de la variable. Se define en dos casos, según si la variable es discreta o no.
3 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-3 Caso discreto Habíamos definido anteriormente el valor esperado de una variable discreta X que toma los valores x 1, x 2,... como la suma de la serie P {(} X = x i )x i i en el caso de que dicha serie converja absolutamente. En ese caso se dice que X tiene esperanza finita. Como un ejemplo, las variables X 1,..., X 100 introducidas anteriormente para modelar tiradas individuales de un dado toman los valores 1, 2, 3, 4, 5, 6 con probabilidad 1/6. Por lo tanto se cumple para todo i. Caso general E(X i ) = = 3,5 Decimos que una variable aleatoria arbitraria X (no necesariamente discreta) tiene esperanza finita si la variable discreta X 1 que se obtiene redondeando X para abajo al entero más cercano tiene esperanza finita. En ese caso definimos E(X) = lím n + E(X n) donde para n = 1, 2, 3, 4, 5,... la variable X n se obtiene redondeando X para abajo hacia la fracción de denominador n más cercana. Como un ejemplo supongamos que X es una variable uniforme en el intervalo [0, 1] (i.e. la probabilidad de que X caiga en un intervalo I [0, 1] es igual a la longitud del intervalo para todo I). En ese caso la variable X n que se obtiene redondeando X hacia abajo a la fracción de denominador n más cercana toma los valores 0, 1/n, 2/n,..., (n 1)/n con probabilidad 1/n. Se obtiene E(X n ) = 1 n 0 n n (n 1). n Reconociendo que la suma de lado derecho es una suma de Riemann para la integral 1 xdx = 1/2 obtenemos 0 E(X) = Caso absolutamente continuo lím E(X n) = 1 n + 2. En el caso de variables absolutamente continuas la siguiente proposición es muy util para calcular esperanzas. Proposición. Si X es una variable absolutamente continua con densidad ρ X y f es + una función tal que f(x) tiene esperanza finita entonces E(f(X)) = ρ X (x)f(x)dx.
4 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-4 Como ejemplo supongamos que X es una variable exponencial de parámetro λ (tiene densidad ρ X (x) = λe λx si x 0 y ρ X (x) = 0 si x < 0). Se calcula usando la proposición e integración por partes E(X) = + λe λx xdx = + e λx dx = 1 λ Propiedades básicas de la esperanza La primer observación importante es que la esperanza solamente depende de la distribución de la variable X (i.e. con qué probabilidad cae en cada rango de valores). Proposición. Si X e Y son variables aleatorias con la misma distribución y X tiene esperanza finita entonces Y también tiene esperanza finita y E(X) = E(Y ). Otra propiedad inmediata a partir de la definición pero muy util es E(1 A ) = P(A) para todo evento A, donde 1 A es la variable aleatoria que vale 1 en A y 0 en Ω \ A. Las siguiente propiedad permite calcular la esperanza de una suma de variables aleatorias conociendo la de cada sumando. Implica por ejemplo que la variable X = X X 100 definida al principio del capítulo para modelar el resultado de sumar 100 tiradas de dado, tiene esperanza E(X) = E(X 1 ) + + E(X 100 ) = 100 3,5 = 350. [Linealidad de la esperanza] Si X e Y son variables aleatorias de esperanza finita y a, b son números entonces E(aX + by ) = ae(x) + be(y ). En casos en los cuales no es posible o es poco práctico calcular la esperanza de una variable aleatoria directamente, a veces se puede utilizar la siguiente proposición para estimar su valor. [Monotonía de la esperanza] Si X e Y son variables aleatorias de esperanza finita y X Y, entonces E(X) E(Y ). Por último, para variables independientes, se cumple la siguiente propiedad: [Esperanza de un producto independiente] Si X e Y son variables aleatorias independientes y con esperanza finita entonces E(XY ) = E(X)E(Y ). Se puede interpretar el hecho de que E(X) = 350 para la variable X = X X 100 que hemos estado usando para modelar la suma de 100 tiradas de dado, como la afirmación de que uno esperaría que la suma caiga en general no muy lejos de 350. Pero esta respuesta no es cuantitativa (e.g. no responde a la pregunta de si 531 es demasiado lejos del valor esperado o no). Sin embargo notemos que se obtuvo prácticamente sin realizar ningún cálculo, solo calculamos la esperanza de una tirada de dado y multiplicamos por 100 (en particular no fué necesario recurrir a programar una computadora para calcular la esperanza de X). En lo que sigue intentaremos utilizar la esperanza para dar respuestas cuantitativas a la pregunda de dónde caerá con alta probabilidad la suma de 100 tiradas de dados.
5 CAPÍTULO 6. ESPERANZA Y VARIANZA Distancia esperada a la media Para dar un rango de valores en el cual es bastante probable que caiga la suma de 100 tiradas de un dado balanceado alcanza con elejir un valor t > 0 de forma que P( X E(X) > t) sea muy chica. Notemos que según los cálculos a fuerza bruta que presentamos antes, t = 44 sería un valor adecuado si queremos que la probabilidad de caer fuera del rango sea menor a 0,01. Con el objetivo de dar otro método para calcular un rango adecuado de valores introducimos la cantidad d = E( X E(X) ) que llamamos la distancia esperada a la media de X. De la monotonía de la esperanza se obtiene el siguiente resultado: Proposición (Desigualdad de Markov). Sea X una variable aleatoria con esperanza finita y E( X E(X) ) = d su distancia esperada a la media. Entonces se cumple para todo t > 0. P( X E(X) > td) 1 t, Demostración. La indicatriz del evento { X E(X) > td} es menor o igual que la variable aleatoria X E(X) /td. El resultado se obtiene por monotonía de la esperanza. La proposición implica que la probabilidad de que X caiga a más de 10 distancias esperadas de su valor esperado es menor o igual a 1/10 (y estimativas similares reemplazando 10 por otro número). Por lo tanto, en principio, este concepto permite dar un rango de valores entorno al valor medio que donde la variable caerá con alta probabilidad. Un primer problema para utilizar la distancia esperada a la media es que es difícil de calcular incluso en ejemplos sencillos como el nuestro. Haciendo un cálculo a fuerza bruta con la ayuda de una computadora obtenemos que para nuestra variable de interés E( X 350 ) 13,6. Utilizando esto obtenemos que le probabilidad de que X caiga fuera del rango entre = 213 y = 487 es menor a 0,1. Esto muestra un segundo problema con la distancia esperada a la media: El rango de valores que se obtiene utilizando la proposición anterior es mucho mayor al lo necesario. Por ejemplo, si quisiéramos calcular un rango de probabilidad mayor a 0,99 con este método nos daría el rango obvio, entre 100 y 600. En lo que sigue encontraremos un método alternativo para estimar probabilidades del tipo P( X E(X) > t) que será más sencillo, y simultáneamente es más exácto, en muchos casos Varianza Se define la varianza de una variable aleatoria X como Var(X) = E( X E(X) 2 ), es decir el valor esperado del cuadrado de la diferencia entre X y su valor esperado.
6 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-6 Expandiendo el cuadrado se obtiene Var(X) = E(X 2 ) E(X) 2, es decir la varianza es la esperanza del cuadrado menos el cuadrado de la esperanza. La raíz cuadrada de la varianza de una variable aleatoria se llama su desviación estándar. Veremos que la desviación estandar juega un rol similar a la distancia esperada a la media. La ventaja de este nuevo concepto es que la varianza resulta ser, en muchísimos casos, más sencilla de calcular y estimar que la distancia esperada a la media E( X E(X) ). Esto se debe a que E(XY ) = E(X)E(Y ) si X e Y son variables independientes. Con esta proposición se obtiene un método efectivo para calcular la varianza de una suma de variables independientes. Proposición (Varianza de una suma independiente). Si X e Y son variables independientes de varianza finita entonces Var(X + Y ) = Var(X) + Var(Y ). Demostración. Se calcula utilizando la independencia E((X + Y ) 2 ) = E(X 2 ) + 2E(X)E(Y ) + E(Y 2 ) mientras que por linealidad de la esperanza (E(X + Y )) 2 = E(X) 2 + 2E(X)E(Y ) + E(Y ) 2. Restando ambas ecuaciones se obtiene el resultado. En particular la variable X = X 1 + +X 100 que hemos venido estudiando para modelar la suma de 100 tiradas de dado cumple Var(X) = 100Var(X 1 ). La varianza de X 1 se calcula a partir de la definición y se obtiene Var(X 1 ) 2,91. Por lo tanto se concluye que Var(X) 291 (y notemos que este resultado se obtuvo sin recurrir a cálculos extensos). Obtenemos entonces que la desviación estandard de X es menor a 18. Esto es útil debido a la siguiente proposición: Proposición (Desigualdad de Chebyshev). Sea X una variable aleatoria de varianza finita y σ = Var(X) su desviación estándar. Entonces se cumple para todo t > 0. P( X E(X) tσ) 1 t 2 Demostración. La indicatriz del evento { X E(X) tσ} es menor o igual a la variable aleatoria X E(X) 2 /(t 2 σ 2 ). El resultado se obtiene por monotonía de la esperanza. La proposición implica que la probabilidad de que una variable X caiga a más de 10 veces su desviación estándar de su valor medio E(X) es menor a 0,01 (y desigualdades similares reemplazando 10 por otros números). En nuestro ejemplo donde X modela la suma de 100 tiradas de dado obtenemos P( X 350 > 180) 0,01. En particular la suma da mayor a 530 en este modelo con probabilidad menor a 1 por ciento. Esto muestra que la varianza puede utilizarse para calcular un rango donde una variable caerá con alta probabilidad sin realizar demasiados cálculos. Además si bien el rango obtenido no es el menor posible (para una probabilidad fija) es utilizable.
7 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-7 Esperanza y Varianza de variables normales Estamos ahora en condiciones de interpretar los parámetros µ y σ 2 de la distribución normal. Proposición. Si X es una variable Normal(µ, σ 2 ) entonces E(X) = µ y Var(X) = σ 2. Demostración. Supongamos primero que X es Normal(0, 1). Utilizando la Proposición obtenemos E(X) = + 1 2π e x2 2 xdx = 0, donde el resultado se obtiene porque la función a integrar es impar (i.e. cambia de signo si x cambia de signo). Utilizando nuevamente la Proposición e integrando por partes (derivando una x y primitivando e x2 2 x) obtenemos Var(X) = + 1 2π e x2 2 x 2 dx = + 1 2π e x2 2 dx = 1. Para el caso general, notemos que si Y es Normal(0, 1) entonces X = σy + µ es Normal(µ, σ 2 ) y cumple E(X) = E(σY + µ) = µ y Var(X) = E((σY ) 2 ) = σ 2 E(Y 2 ) = σ Demostraciones En esta sección daremos las demostraciones que fueron postergadas en la parte anterior del capítulo. Demostración. Daremos la demostración sólamente en el caso donde f(x) = x y la densidad ρ X es continua. Definamos X n para n = 1, 2,... como las variables que se obtienen redondeando X hacia abajo a la fracción de denominador n más cercana. Notemos que E(X n ) = k Z PX [k/n, (k + 1)/n) k n = k Z k+1 n k n ρ X (x)dx k n. Utilizando el teorema de valor medio para integrales obtenemos E(X n ) = ρ X (x k ) k 1 n n, k Z
8 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-8 donde x k [k/n, (k + 1)/n]. Reconociendo que esto último es una suma de Riemann para la integral obtenemos que E(X) = lím n + E(X n) = + ρ X (x)xdx. + ρ x (x)xdx Demostración. Si X e Y son discretas la conclusión sigue directamente de la definición. En el caso general notemos que como X e Y tienen la misma distribución las variables discretas X n e Y n que se obtienen redondeando a X e Y hacia abajo a la fracción de denominador más cercana tienen la misma distribución. De esto se obtiene E(X) = lím E(X n ) = lím E(Y n ) = E(Y ) a partir del caso discreto tomando límite. Demostración. Para empezar demostremos el caso discreto. Supongamos que X toma los valores x 1, x 2,... e Y los valores y 1, y 2,.... De la definición de esperanza para variables discretas obtenemos E(X) = i P(X = x i )x i = i,j P(X = x i, Y = y j )x i y en forma similar E(Y ) = j P(Y = y j )y j = i,j P(X = x i, Y = y j )y j. Sumando ambas igualdades obtenemos E(X) + E(Y ) = i,j P(X = x i, Y = y j )(x i + y j ) = E(X + Y ). Por otro lado es fácil ver que si X toma los valores x 1, x 2,... y a es un número se cumple E(aX) = i P(aX = ax i )ax i = a i P(X = x i )x i = ae(x). Esto concluye la demostración de linealidad de la esperanza para variables discretas. Antes de pasar al caso general observemos que si dos variables discretas cumplen X Y t entonces con el mismo argumento que se hizo para calcular E(X + Y ) se calcula E(X) E(Y ) = P(X = x i, Y = y j )(x i y j ) i,j donde la suma es sobre pares (i, j) tales que x i y j [ t, t]. Se obtiene entonces que E(X) E(Y ) t.
9 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-9 Pasemos ahora al caso en el cuál X e Y son variables aleatorias no necesariamente discretas. Definamos en este caso las variables X n, Y n, y (X + Y ) n que se obtienen redondeando hacia abajo a la fracción de denominador n más cercana las variables X, Y y X + Y respectivamente. Notemos que (X + Y ) n (X n + Y n ) 3/n ya que en cada paso de redondeo se comete un error máximo de 1/n. En particular E((X + Y ) n ) y E(X n + Y n ) tienen el mismo límite cuando n +. De esto se obtiene E(X +Y ) = lím n E((X +Y ) n ) = lím n E(X n +Y n ) = lím E(X n )+E(Y n ) = E(X)+E(Y ). Por último si a es un número y (ax) n se obtiene redondeando (como siempre) la variable ax. Observemos que (ax) n ax n a /n. De esto se obtiene E(aX) = lím E((aX) n ) = lím E(aX n ) = lím ae(x n ) = ae(x) lo cual concluye la demostración de linealidad de la esperanza. Continuamos con la demostración de monotonía de la esperanza. Esta propiedad se usó en lo anterior para demostrar las desigualdades de Markov y Chebyshev. Demostración. Por linealidad de la esperanza alcanza con demostrar que E(Y X) 0. Notemos que Z = Y X es una variable aleatoria que nunca es negativa. Esto implica que las variables Z n que se obtienen redondeando Z hacia abajo a la fracción de denominador n = 1, 2,... más cercana también son mayores o iguales a 0. Entonces, de la definición de esperanza para variables discretas E(Z n ) 0 de lo cual tomando límite E(Z) 0 como se buscaba demostrar. Para concluir esta sección demostraremos que la esperanza de un producto de variables aleatorias independientes es el producto de las esperanzas. Esta propiedad es la que nos permitió mostrar que la varianza de una suma independiente se obtiene sumando las varianzas de cada término. Lo cual, a su vez, hace que la varianza sea un concepto muy util al trabajar con sumas independientes. Demostración. Asumimos primero que X e Y son discretas. Supongamos que X toma los valores x 1, x 2,... con probabilidades p 1, p 2,... respectivamente y que Y toma los valores y 1, y 2,... con probabilidades q 1, q 2,.... Por definición de esperanza de XY (que es una variable discreta) y usando la independencia de X e Y obtenemos E(XY ) = i,j P(X = x i, Y = y j )x i y j = i,j p i q j x i y j pero el lado derecho es igual al producto ( + ) ( + ) p i x i q j y j = E(X)E(Y ), i=1 que es lo que queríamos demostrar. j=1
10 CAPÍTULO 6. ESPERANZA Y VARIANZA 6-10 Pasemos ahora al caso general donde X e Y no necesariamente son discretas. Definimos para n = 1, 2,... las variables discretas X n e Y n redondeando X e Y respectivamente hacia abajo a la fracción de denominador n más cercana. Afirmamos que E(XY ) = lím E(X ny n ). Si esto fuera cierto se obtendría por n + independencia de X n e Y n (que son discretas) E(XY ) = lím E(X ny n ) = lím E(X n)e(y n ) = E(X)E(Y ) n + n + que es lo que buscamos demostrar. Resta entonces verificar que E(XY ) E(X n Y n ) tiende a cero. Para esto usamos la linealidad de la esperanza y el truco de sumar y restar XY n para obtener E(XY ) E(X n Y n ) = E(X(Y Y n )) + E((X X n )Y n ). Ahora notemos que Y n Y y X X n son menores o iguales a 1/n. Por lo tanto (usando monotonía de la esperanza) obtenemos que tiende a 0 cuando n +. E(XY ) E(X n Y n ) 1 n E(X) + 1 n E(Y n)
Variables aleatorias continuas, TCL y Esperanza Condicional
Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función
Más detallesDistribuciones de probabilidad bidimensionales o conjuntas
Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso
Más detallesModelos de distribuciones discretas y continuas
Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Modelos de distribuciones discretas y continuas Estadística I curso 2008 2009 1. Distribuciones discretas Aquellas
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 3
Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias
Más detallesMétodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B
Métodos Estadísticos de la Ingeniería Tema 7: Momentos de Variables Aleatorias Grupo B Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Marzo 2010 Contenidos...............................................................
Más detallesVARIABLES ALEATORIAS DISCRETAS
VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:
Más detallesVariables aleatorias. Tema Introducción Variable aleatoria. Contenido
Tema 4 Variables aleatorias En este tema se introduce el concepto de variable aleatoria y se estudian los distintos tipos de variables aleatorias a un nivel muy general, lo que nos permitirá manejar los
Más detallesTeorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i :
Teorema de Bayes(5) 75 Gráficamente, tenemos un suceso A en un espacio muestral particionado. Conocemos las probabilidades a priori o probabilidades de las partes sabiendo que ocurrió A: Teorema de Bayes(6)
Más detallesPart I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas
Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando
Más detallesEstadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10
Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,
Más detallesSemana 09 [1/28] Sucesiones. 29 de abril de Sucesiones
Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará
Más detallesTema 3: Función de Variable Aleatoria y Teoremas Asintóticos
Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Curso 2016-2017 Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable
Más detallesRESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO
RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre
Más detallesEl Teorema de Recurrencia de Poincaré
El Teorema de Recurrencia de Poincaré Pablo Lessa 9 de octubre de 204. Recurrencia de Poincaré.. Fracciones Continuas Supongamos que queremos expresar la relación que existe entre los números 27 y 0. Una
Más detallesTema 4: Variables aleatorias multidimensionales
1 Tema 4: Variables aleatorias multidimensionales En este tema: Distribución conjunta de probabilidad Probabilidad/densidad marginal Probabilidad/densidad condicionada Esperanza, varianza, desviación típica
Más detallesCapítulo 6: Variable Aleatoria Bidimensional
Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el
Más detallesEjercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
Más detallesTema 4: Variables aleatorias multidimensionales
Tema 4: Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Distribución conjunta de probabilidad Probabilidad/densidad marginales y condicionadas Independencia
Más detallesTema 5. Muestreo y distribuciones muestrales
1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución
Más detallesDistribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas
Distribuciones Probabilísticas Curso de Estadística TAE,005 J.J. Gómez Cadenas Distribución Binomial Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo
Más detallesCuadratura de Newton-Cotes
Profesor: Jaime Álvarez Maldonado Universidad de Santiago de Chile Facultad de Ciencia Departamento de Matemática y Ciencias de la Computación INTEGRACION NUMERICA Ayudante: Rodrigo Torres Aguirre INTEGRACION
Más detallesPROBABILIDAD Y ESTADÍSTICA
FACULTAD DE INGENIERÍA U N A M PROBABILIDAD Y ESTADÍSTICA Irene Patricia Valdez y Alfaro irenev@unam.mx T E M A S DEL CURSO 1. Análisis Estadístico de datos muestrales. 2. Fundamentos de la Teoría de la
Más detallesSistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad
Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Indice 1) Sucesos aleatorios. Espacio muestral. 2) Operaciones con sucesos. 3) Enfoques de la Probabilidad.
Más detallesVariables aleatorias
Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,
Más detallesTema 3: Funcio n de Variable Aleatoria
Tema 3: Funcio n de Variable Aleatoria Teorı a de la Comunicacio n Curso 2007-2008 Contenido 1 Función de una Variable Aleatoria 2 3 Cálculo de la fdp 4 Generación de Números Aleatorios 5 Momentos de una
Más detallesMODELO DE RESPUESTAS Objetivos del 1 al 9
PRUEBA INTEGRAL LAPSO 05-764 - /9 Universidad Nacional Abierta Probabilidad y Estadística I (Cód. 764) Vicerrectorado Académico Cód. Carrera: 6 Fecha: 0-04-06 MODELO DE RESPUESTAS Objetivos del al 9 OBJ
Más detallesUnidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Más detallesIntroducción a los Procesos de Poisson *
Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22
Más detallessobre un intervalo si para todo de se tiene que. Teorema 1 Sean y dos primitivas de la función en. Entonces,
Integral indefinida Primitiva e integral indefinida. Cálculo de primitivas: métodos de integración. Integración por cambio de variable e integración por partes. Integración de funciones racionales e irracionales.
Más detallesVariables aleatorias bidimensionales discretas
Universidad de San Carlos de Guatemala Facultad de Ingeniería Área de Estadística VARIABLES ALEATORIAS BIDIMENSIONALES Concepto: Sean X e Y variables aleatorias. Una variable aleatoria bidimensional (X,
Más detallesVariables aleatorias unidimensionales
Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen
Más detallesTema 2: Magnitudes aleatorias
Facultad de Economía y Empresa 1 Prácticas Tema.- Magnitudes aleatorias Tema : Magnitudes aleatorias DEMANDA La demanda de cierto artículo es una variable aleatoria con la siguiente distribución: Número
Más detallesObjetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria
Tema 4: Variables aleatorias discretas Objetivos Dominar el uso de las funciones asociadas a una variable aleatoria discreta para calcular probabilidades. Conocer el signicado y saber calcular la esperanza
Más detallesDistribuciones de Probabilidad
Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica
Más detallesEjercicios de Variables Aleatorias
Ejercicios de Variables Aleatorias Elisa M. Molanes-López, Depto. Estadística, UC3M Transformaciones de variables aleatorias Ejercicio. Sea X una v.a. continua con función de densidad dada por: /, si
Más detallesEsperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso
Esperanza condicionada Apuntes de clase Probabilidad II (grupos 31 y 40) Curso 2010-11 Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad y esperanza condicionada: recordatorio
Más detalles4.1. Definición de variable aleatoria. Clasificación.
Capítulo 4 Variable aleatoria Una variable aleatoria es un valor numérico que corresponde a un resultado de un experimento aleatorio. Algunos ejemplos son: número de caras obtenidas al lanzar seis veces
Más detallesObjetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev
PROBABILIDAD Y ESTADÍSTICA Sesión MODELOS ANALÍTICOS DE FENÓMENOS ALEATORIOS CONTINUOS. Definición de variable aleatoria continua. Función de densidad y acumulatíva. Valor esperado, varianza y desviación
Más detallesUnidad Temática 3: Probabilidad y Variables Aleatorias
Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento
Más detallesTema 6: Modelos de probabilidad.
Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos
Más detallesVariable Aleatoria Continua. Principales Distribuciones
Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables
Más detallesPrueba Integral Lapso /6
Prueba Integral Lapso 2 009-2 76 - /6 Universidad Nacional Abierta Probabilidad y Estadística I (76) Vicerrectorado Académico Cód. Carrera: 06-20 - 508 Fecha: 2-2 - 2 009 MODELO DE RESPUESTAS Objetivos,
Más detallesIntegral de Fourier y espectros continuos
9 2 2 2 Esta expresión se denomina forma de Angulo fase (o forma armónica) de la serie de Fourier. Integral de Fourier y espectros continuos Las series de Fourier son una herramienta útil para representar
Más detallesUnidad 2: Ecuaciones, inecuaciones y sistemas.
Unidad 2: Ecuaciones, inecuaciones y sistemas 1 Unidad 2: Ecuaciones, inecuaciones y sistemas. 1.- Factorización de polinomios. M. C. D y m.c.m de polinomios. Un número a es raíz de un polinomio es 0.
Más detallesCURSO CERO DE MATEMATICAS. Apuntes elaborados por Domingo Pestana Galván. y José Manuel Rodríguez García
INGENIEROS INDUSTRIALES Y DE TELECOMUNICACIONES CURSO CERO DE MATEMATICAS Apuntes elaborados por Domingo Pestana Galván y José Manuel Rodríguez García UNIVERSIDAD CARLOS III DE MADRID Escuela Politécnica
Más detallesTema 3. VARIABLES ALEATORIAS.
3..- Introducción. Tema 3. VARIABLES ALEATORIAS. Objetivo: Encontrar modelos matemáticos para el trabajo con probabilidad de sucesos. En particular, se quiere trabajar con funciones reales de variable
Más detallesTema 13: Distribuciones de probabilidad. Estadística
Tema 13: Distribuciones de probabilidad. Estadística 1. Variable aleatoria Una variable aleatoria es una función que asocia a cada elemento del espacio muestral, de un experimento aleatorio, un número
Más detallesDISTRIBUCIÓN N BINOMIAL
DISTRIBUCIÓN N BINOMIAL COMBINACIONES En muchos problemas de probabilidad es necesario conocer el número de maneras en que r objetos pueden seleccionarse de un conjunto de n objetos. A esto se le denomina
Más detallesProf. Eliana Guzmán U. Semestre A-2015
Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos
Más detalles10. Series de potencias
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 7-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San
Más detallesDistribuciones de Probabilidad para Variables Aleatorias Discretas 1
Distribuciones de Probabilidad para Variables Aleatorias Discretas Apellidos, nombre Martínez Gómez, Mónica (momargo@eio.upv.es) Marí Benlloch, Manuel (mamaben@eio.upv.es) Departamento Centro Estadística,
Más detallesTema 4: Variable Aleatoria Bidimensional
Curso 2016-2017 Contenido 1 Definición de Variable Aleatoria Bidimensional 2 Distribución y fdp Conjunta 3 Clasificación de Variables Aleatorias Bidimensionales 4 Distribuciones Condicionales 5 Funciones
Más detalles1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido
E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 3: Solución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña
Más detallesANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.
ANEXO 1. CONCEPTOS BÁSICOS Este anexo contiene información que complementa el entendimiento de la tesis presentada. Aquí se exponen técnicas de cálculo que son utilizados en los procedimientos de los modelos
Más detalles1. La Distribución Normal
1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando
Más detallesPRÁCTICA I. Ejercicios Teóricos
PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las
Más detallesContinuidad y monotonía
Tema 14 Continuidad y monotonía Generalizando lo que se hizo en su momento para sucesiones, definiremos la monotonía de una función, en forma bien fácil de adivinar. Probaremos entonces dos resultados
Más detallesVariables aleatorias continuas
Probabilidades y stadística Computación Facultad de Ciencias actas y Naturales Universidad de uenos ires na M ianco y lena J Martínez 004 Variables aleatorias continuas jemplo: Con el in de realizar un
Más detallesNúmeros complejos y Polinomios
Semana 13 [1/14] 23 de mayo de 2007 Forma polar de los complejos Semana 13 [2/14] Raíces de la unidad Raíz n-ésima de la unidad Sean z C y n 2. Diremos que z es una raíz n-ésima de la unidad si z n = 1
Más detallesCálculo de Probabilidades II Preguntas Tema 1
Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga
Más detallesANALISIS DE FRECUENCIA EN HIDROLOGIA
ANALISIS DE FRECUENCIA EN HIDROLOGIA Luis F. Carvajal Julián D. Rojo Universidad Nacional de Colombia Facultad de Minas Escuela de Geociencias y Medio Ambiente Introducción 1. Los eventos hidrológicos
Más detallesALGEBRA I, ALGEBRA Y TRIGONOMETRIA , Segundo Semestre CAPITULO 6: POLINOMIOS.
ALGEBRA I, ALGEBRA Y TRIGONOMETRIA 520135, 522115 Segundo Semestre CAPITULO 6: POLINOMIOS. DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición: Polinomio Sea K
Más detallesVariables aleatòries vectorials Els problemes assenyalats amb un (*) se faran a classe. 1.- Los estudiantes de una universidad se clasifican de acuerdo a sus años en la universidad (X) y el número de visitas
Más detallesEl momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X
Momentos El momento k-ésimo para una variable aleatoria discreta respecto del origen, es E(x) n = i = 1 k i ( ) x.p x El primer momento centrado en el origen (k=1) es la esperanza matemática de X También
Más detallesFísica 3: Septiembre-Diciembre 2011 Clase 13,Lunes 24 de octubre de 2011
Clase 13 Potencial Eléctrico Cálculo del potencial eléctrico Ejemplo 35: Efecto punta En un conductor el campo eléctrico es mas intenso cerca de las puntas y protuberancias pues el exceso de carga tiende
Más detallesTema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesTema 5 Variables aleatorias: distribuciones de probabilidad y características.
Tema 5 Variables aleatorias: distribuciones de probabilidad y características. 1. Introducción Según se ha reflejado hasta el momento, el espacio muestral asociado a un experimento aleatorio puede ser
Más detalles2. Continuidad y derivabilidad. Aplicaciones
Métodos Matemáticos (Curso 2013 2014) Grado en Óptica y Optometría 7 2. Continuidad y derivabilidad. Aplicaciones Límite de una función en un punto Sea una función f(x) definida en el entorno de un punto
Más detallesLa función, definida para toda, es periódica si existe un número positivo tal que
Métodos con series de Fourier Definición: Función periódica La función, definida para toda, es periódica si existe un número positivo tal que para toda. El número en un periodo de la función. Si existe
Más detallesNúmeros naturales y recursividad
Números naturales y recursividad Rafael F. Isaacs G. * Fecha: 12 de abril de 2004 Números naturales Cuál es el primer conjunto de números que estudiamos desde la escuela primaria? Se sabe que los números
Más detalles( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE
Estudiamos algunos ejemplos de distribuciones de variables aleatorias continuas. De ellas merecen especial mención las derivadas de la distribución normal (χ, t de Student y F de Snedecor), por su importancia
Más detalles6.1. Esperanza Matemática de Variables Aleatorias Discretas.
Capítulo 6 Esperanza Matemática 6 Esperanza Matemática de Variables Aleatorias Discretas Recordemos que una variable aleatoria X es discreta, si existe una sucesión (x n ) n de números reales tales que
Más detallesFundamentos matemáticos. Tema 8 Ecuaciones diferenciales
Grado en Ingeniería agrícola y del medio rural Tema 8 José Barrios García Departamento de Análisis Matemático Universidad de La Laguna jbarrios@ull.es 2016 Licencia Creative Commons 4.0 Internacional J.
Más detallesEspacios métricos completos
5 Espacios métricos completos Comenzamos introduciendo las sucesiones de Cauchy, que relacionamos con las sucesiones convergentes. En el caso de que coincidan, se trata de un espacio métrico completo.
Más detallesProblemas de VC para EDVC elaborados por C. Mora, Tema 4
Problemas de VC para EDVC elaborados por C. Mora, Tema 4 Ejercicio Determinar las funciones enteras f para las que Solución f( + w) = f()f(w), w C. En primer lugar, f(0) = f(0 + 0) = f(0)f(0) = f(0) 2,
Más detallesSimulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12
Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación
Más detallesFormulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico
Formulario. Estadística Administrativa Módulo 1. Introducción al análisis estadístico Histogramas El número de intervalos de clase, k, se elige de tal forma que el valor 2 k sea menor (pero el valor más
Más detallesModelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Más detallesVariables aleatorias
Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando
Más detallesCurso de Probabilidad y Estadística
Curso de Probabilidad y Estadística Distribuciones de Probabilidad Dr. José Antonio Camarena Ibarrola camarena@umich.mx Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica
Más detallesFunciones de Variable Real
Tema 1 Funciones de Variable Real 1.1. La Recta Real Los números reales se pueden ordenar como los puntos de una recta. Los enteros positivos {1, 2, 3, 4,...} que surgen al contar, se llaman números naturales
Más detallesCap. 5 : Distribuciones muestrales
Cap. 5 : Distribuciones muestrales Alexandre Blondin Massé Departamento de Informática y Matematica Université du Québec à Chicoutimi 18 de junio del 2015 Modelado de sistemas aleatorios Ingeniería de
Más detallesTema 2: Variables Aleatorias Unidimensionales
Tema 2: Variables Aleatorias Unidimensionales Teorı a de la Comunicacio n Curso 27-28 Contenido 1 Concepto de Variable Aleatoria 2 Función Distribución 3 Clasificación de Variables Aleatorias 4 Función
Más detallesDistribuciones de probabilidad multivariadas
Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable
Más detallesGeneración de variables aleatorias continuas Método de rechazo
Generación de variables aleatorias continuas Método de rechazo Georgina Flesia FaMAF 18 de abril, 2013 Método de Aceptación y Rechazo Repaso Se desea simular una v. a. X discreta, con probabilidad de masa
Más detallesConjuntos de Vectores y Matrices Ortogonales
Conjuntos de Vectores y Matrices Ortogonales Departamento de Matemáticas, CCIR/ITESM 28 de junio de 2011 Índice 21.1.Introducción............................................... 1 21.2.Producto interno............................................
Más detallesFACULTAD DE INGENIERÍA UNAM PROBABILIDAD Y ESTADÍSTICA Irene Patricia Valdez y Alfaro irenev@servidor.unam.m T E M A S DEL CURSO. Análisis Estadístico de datos muestrales.. Fundamentos de la Teoría de
Más detallesGeneración de variables aleatorias discretas Método de la Transformada Inversa
Generación de variables aleatorias discretas Método de la Transformada Inversa Patricia Kisbye FaMAF 30 de marzo, 2010 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Más detallesF (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0
Probabilidades y Estadística (M) Práctica 5 1 o cuatrimestre 2014 Vectores aleatorios 1. a) Demostrar que la función F (x, y) = 1 e x y si x 0, y 0 0 en caso contrario no es la función de distribución
Más detallesRepaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Más detallesTeorema de Bayes. mientras que B tiene una tasa de defectos del 4%.
Teorema de Bayes Ejemplo: En una empresa manufacturera, una máquina A produce el 60% de la producción total, mientras que una máquina B el restante 40%. 71 El 2% de las unidades producidas por A son defectuosas,
Más detallesCuando se enumeran todos los elementos que componen el conjunto. A = { 1, 2, 3, 4, 5 }
LOS NÚMEROS REALES TEMA 1 IDEAS SOBRE CONJUNTOS Partiremos de la idea natural de conjunto y del conocimiento de si un elemento pertenece (* ) o no pertenece (* ) a un conjunto. Los conjuntos se pueden
Más detallesTEMA 6: DIVISIÓN DE POLINOMIOS RAÍCES MATEMÁTICAS 3º ESO
TEMA 6: DIVISIÓN DE POLINOMIOS RAÍCES MATEMÁTICAS 3º ESO 1. División de polinomios Dados dos polinomios P (el dividendo) y D (el divisor), dividir P entre D es encontrar dos polinomios Q (el cociente)
Más detallesINTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)
TEMA Nº 7 DISTRIBUCIONES CONTINUAS DE PROBABILIDAD OBJETIVOS DE APRENDIZAJE: Conocer las características de la distribución normal como distribución de probabilidad de una variable y la aproximación de
Más detallesTeoría de la Probabilidad Tema 2: Teorema de Extensión
Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada
Más detallesConjuntos, relaciones y funciones Susana Puddu
Susana Puddu 1. Repaso sobre la teoría de conjuntos. Denotaremos por IN al conjunto de los números naturales y por ZZ al de los enteros. Dados dos conjuntos A y B decimos que A está contenido en B o también
Más detalles3er Concurso Unversitario de Matemáticas Galois-Noether 2013 Segunda Etapa
3er Concurso Unversitario de Matemáticas Galois-Noether 013 Segunda Etapa Sábado 17 de agosto 013 Bienvenido a la Segunda Etapa del Concurso Universitario de Matemáticas Galois-Noether Responde a las preguntas
Más detallesDiagonalización de matrices
Capítulo 6 Diagonalización de matrices 6.. Introducción 6... Un ejemplo preliminar Antes de plantearlo de manera general, estudiaremos un ejemplo que servirá para situar el problema. Supongamos que, en
Más detalles