1.1. Operaciones básicas: complemento, unión e intersección Variable aleatoria X... 10
|
|
- Aarón Rivero de la Fuente
- hace 8 años
- Vistas:
Transcripción
1 Índice general 1. Estadística y Procesos Estocásticos Introducción a la estadística Axiomas de la probabilidad Probabilidad condicional e independencia Ley de la probabilidad total y el teorema de Bayes Las variables aleatorias y sus momentos Introducción a las variables aleatorias Variables aleatorias discretas Variables aleatorias continuas Funciones de variables aleatorias Múltiples variables aleatorias Covarianza y Correlación Combinación lineal de variables aleatorias Mixtura de variables aleatorias Límites y desigualdades Desigualdad de Markov Desigualdad de Chebyshev Límite de Chernoff Ley de los grandes números Introducción a los procesos estocásticos Cadenas de Markov de tiempo discreto: DTMC Introducción a las cadenas de Markov en tiempo continuo 30 1
2 2 ÍNDICE GENERAL
3 Índice de figuras 1.1. Operaciones básicas: complemento, unión e intersección Variable aleatoria X
4 4 ÍNDICE DE FIGURAS
5 Índice de cuadros 1.1. Media y varianza de las v.a
6 6 ÍNDICE DE CUADROS
7 Capítulo 1 Estadística y Procesos Estocásticos 1.1. Introducción a la estadística Axiomas de la probabilidad La caracterización estocástica de un proceso resulta de interés cuando no existe un modelo físico que permita describir lo que está ocurriendo. Definimos: S espacio de estados (conjunto de resultados posibles en un experimento). Sean A y B subconjuntos de S: A S, B S. Las operaciones Complemento(A c ), unión (A B), e intersección (A B) se definen gráficamente como: S S S A A c B A B A complementario union interseccion Figura 1.1: Operaciones básicas: complemento, unión e intersección Dos conjuntos de eventos A y B son disjuntos si A B = 0. Ejemplo 1.1: Transmisión de 1 bit en una línea. S = {0, 1}, donde 0 implica recepción correcta y 1 lo contrario. Debemos atribuir probabilidades al conjunto de resultados posibles que es:, {0}, {1}, S. Para ello, existen determinadas reglas básicas conocidas como axiomas de la probabilidad: 7
8 8 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Axioma 1 : P (S) = 1 Axioma 2 : P (A c ) = 1 P (A) Axioma 3 : Sean A m conjuntos de eventos disjuntos: P ( m A m) = m P (A m) Este último axioma se puede generalizar para el caso de conjuntos de eventos no disjuntos de la siguiente manera: m m P ( A k ) = P (A j A k )+ P (A k A j A l )...+( 1) m 1 P (A 1 A 2... A m ) k=1 k=1 P (A k ) k j k j l De dichos axiomas es posible derivar las siguientes propiedades: 1. A, su probabilidad se encuentra acotada: 0 P (A) 1 2. P (A i A j ) = P (A i ) + P (A j ) P (A i A j ) 3. Si A B P (A) P (B) (1.1) Probabilidad condicional e independencia Definimos la probabilidad condicional de que ocurra el suceso A condicionado a que ocurriera el evento B como: P (A B) = P (A B) P (B) (1.2) Siempre que P (B) 0 se puede demostrar que P (A B) satisface los axiomas de las probabilidades. La probabilidad condicionada permite calcular probabilidades sobre el resultado de un experimento A cuando dispongo de información parcial sobre el mismo. Es útil en experimentos que se pueden descomponer en varias partes. Ejemplo:Suponga que lanza una moneda al aire dos veces. qué probabilidad existe de obtener 2 caras?. A priori (sin información previa) sería P (cc) = 1/4, pero si la primera moneda sale cara sería P (cc c) = 1/2. Dos eventos A y B se dicen independientes 1 (A B) cuando no se encuentran relacionados; esto es, cuando la ocurrencia de B no aporta información sobre la ocurrencia de A. En tal caso: A B P (A B) = P (A) P (B) P (A) = P (A B) (1.3) 1 No confundir eventos mútuamente excluyentes (no pueden ocurrir a la vez, P (A B) = P (A) + P (B)) con eventos independientes (P (A B) = P (A) P (B))
9 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 9 Cuando existen más de dos acontecimientos la independencia se define de la siguiente manera: (A m ) son independientes si k m A 1, A 2,... A k se cumple que: k k P ( A j ) = P (A j ) j=1 j= Ley de la probabilidad total y el teorema de Bayes Sea {B k } una partición del espacio de estados S ( B k = S, y B i B j = para i j). En tal caso la ley de la probabilidad total nos indica que: P (A) = k P (A B k ) = k P (B k ) P (A B k ) (1.4), ya que A = S A = ( B k ) A y como B k A son conjuntos disjuntos es posible aplicar el tercer axioma de las probabilidades para obtener el resultado anterior. El teorema de Bayes es una aplicación directa de la ley de la probabilidad total, puesto que resulta de aplicarlo a la definición de probabilidad condicional. P (B i A) = P (B i A) k P (B k A) = P (B i) P (A B i ) k P (B k) P (A B k ) (1.5) El teorema de Bayes permite obtener la probabilidad del evento de causa, B i, dada la observación del evento de interés, A. Nos permite, por ejemplo, inferir la probabilidad de que un coductor que haya sufrido un accidente estuviera embriagado Las variables aleatorias y sus momentos Introducción a las variables aleatorias En ocasiones, cuando realizamos un experimento sólo estamos interesados en el valor de algunas cantidades determinadas por el resultado, como el valor obtenido por dos dados, o si el número de paquetes por segundo supera cierto umbral. Estas cantidades de interés se conocen como variables aleatorias y vienen determinadas por el resultado de un experimento podemos asignar probabilidades a sus posibles valores. Las variables aleatorias nos permiten trasladar los eventos que resultan de un experimento a números. Las variables aleatorias se representan en mayúsula (ejemplo: X) y los valores que asumen en minúscula (ejemplo: x).
10 10 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS S X R Figura 1.2: Variable aleatoria X Gracias al uso de las variables aleatorias, las probabilidades asociadas a cada punto de S se asocian ahora a un valor de un número real. Ejemplo:Defino X como el número de accesos a un servidor Web en un día. cual será P (X = 50000)? La forma más común de especificar la probabilidad asociada a cada punto es mediante la función de distribución de X, que se define como: F X (u) = P {w S : X(w) u} = P (X u), u R Las funciones de distribución permiten caracterizar R de forma independientes del espacio de estados S. La función de supervivencia, de gran aplicación en el área de la fiabilidad, es la complementaria a la función de distribución: F X (u) = P (X > u), u R Partiendo de los axiomas básicos de la probabilidad es posible demostrar que: F ( ) = 0, F ( ) = 1 y F X (x 1 ) F X (x 2 ) para x 1 x 2. Así mismo se pueden calcular las probabilidades en un intervalo como: P (x 1 X x 2 ) = F X (x 2 ) F X (x 1 ) Variables aleatorias discretas Son aquellas que tienen la cardinalidad de los números naturales. Diremos que X es una variable aleatoria discreta si un conjunto D numerable que verifique: P (X D) = 1. En tal caso, se define la función de probabilidad de X como: p X (i) P (X = i), i D
11 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 11 La relación entre la función de probabilidad de una v.a. discreta y su función de distribución es la siguiente: F X (x) = i=0 P (X = x i) U(x x i ), donde U(x) = 1 si x 0 y 0 en otro caso. Algunas de las variables discretas más utilizadas son: Bernouilli: X Bernouilli(p), 0 p 1. Su función de probabilidad es: p, x = 1; p X (x) = 1 p, x = 0; 0, x 0, 1. (1.6) Se utiliza para modelar el éxito o fracaso de un experimento aleatorio como lanzar una moneda al aire, la transmisión correcta de un bit,... si X = 1 se considera un éxito en el experimento. Binomial: X Binomial(n, p), 0 p 1, n > 0. Su función de probabilidad es: p X (x) = ( n x ) p x (1 p) n x, x = 0, 1, 2,... n (1.7) Si realizamos n experimentos de Bernouilli (X i ) independientes con la misma probabilidad de éxito p, entonces la variable aleatoria X = n i=1 X i, de distribución binomial, nos indicará el número de éxitos obtenidos en las pruebas. Para valores altos de n resulta complicado el cálculo de ( n x) Poisson: X P oisson(λ) λ > 0. Su función de probabilidad es: p X (x) = e λ λx, x = 0, 1,... (1.8) x! Esta variable aleatoria se asocia a resultados de acontecimientos muy poco probables pero con una población muy grande. Se puede considerar el límite de la Binomial cuando n p constante e igual a λ, con n. Debido a su gran aplicación en telecomunicaciones conviene detenernos en posibles caso de uso de esta variables. Supongamos que partimos en n trozos una barra con imperfecciones aleatoriamente distribuidas. Podemos modelar el número de imperfecciones en un trozo mediante una v.a. binomial. Si cada trozo es lo suficientemente pequeño, la probabilidad de que tenga un defecto p es muy pequeña. Si incremento el número de trozos n entonces p se disminuye en la misma proporción, de forma que p n es constante. Para n tendiendo a infinito la v.a. sería Poisson.
12 12 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Este mismo razonamiento se puede aplicar a cualquier intervalo que se divida en trozos (incluyendo un intervalo de tiempo). De forma general podemos afirmar que si un intervalo sobre el cual pueden ocurrir eventos aleatoriamente distribuidos (en el tiempo o en el espacio) puede ser dividido en intervalos suficientemente pequeños, en tal caso, el experimento aleatorio se llama proceso (observación de un sistema en el tiempo) de Poisson. Supongamos que N(t) es una variable que indica el número de eventos aleatorios que ocurren en un intervalo de tiempo [0, t]. Dichos eventos constituyen un proceso de poisson con tasa λ, λ > 0 si a) N(0) = 0 b) El número de eventos que ocurren en un subintervalo es independiente de los que ocurren en otros subintervalos disjuntos. c) La probabilidad de que ocurra un evento en un subintervalo es la misma para todos los subintervalos y proporcional a su longitud, no a su localización. P (N(h)=1) d) lím h 0 h = λ P (N(h) 2) e) lím h 0 h = 0 Para obtener la expresión de P (N(t) = k), dividiremos el intervalo [0, t] en n subintervalos de longitud t n. Entonces, para n tendremos que P (N(t) = k) = P (k de los n subintervalos tienen 1 evento y n-k tienen 0 eventos), donde para cada subintervalo la probabilidad de éxito (tener un evento) será p λ t n. Por tanto P (N(t) = k) Binomial(n, p). Como n y n p = λt = constante N(t) tendrá una distribución de Poisson de tasa λt. Geométrica: X Geometrica(p), 0 p 1. Su función de probabilidad es: p X (x) = (1 p) x 1 p, x = 1, 2,... (1.9) La variable aleatoría Geométrica X representa el número de pruebas de Bernouilli necesarias para obtener el primer éxito; esto es, siendo X i : variables aleatorias de Bernouilli de parámetro p, entonces X = ínf{m 1 : X m = 1}. Hipergeométrica: X Hipergeometrica(N, n, k), k N, n N. Su función de probabilidad es:
13 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 13 p X (x) = ( k n ) ( ) N k n x ( ), x = máx{0, n + k N},... mín{k, n} N n (1.10) Sea un conjunto de N objetos compuestos por k objetos clasificados como éxito y N k como fracaso. Si tomamos una muestra de n objetos aleatoriamente (sin reposición), la variable aleatoria X, con distribución hipergeométrica, medirá el número de éxitos en la muestra elegida. En este caso los experimentos de Bernouilli no son independientes, pues la probabilidad de éxito varía a medida que se realizan extracciones. Cuando la población es muy grande (N n, típicamente n N < 0, 1) se puede utilizar la binomial. Binomial Negativa:X BinNeg(n, p), 0 p 1, n 1. Su función de probabilidad es: p X (x) = ( x 1 n 1 ) p n (1 p) x n, x = n, n + 1, n + 2,... (1.11) La binomial negativa es una generalización de la geométrica en la cual la variable aleatoria representa el número de experimentos de Bernouilli que debo realizar para obtener n éxitos. Siendo Y i variables aleatorias con distribución geométrica, podemos afirmar que X = m i=1 Y i tiene una distribución binomial negativa. Esperanza y momentos de una variable aleatoria discreta En ocasiones se utilizan ciertos valores (media, momentos,...) que permiten ofrecer información sobre la función de distribución de una v.a. La media o valor esperado de una variable aleatoria X es una media ponderada de los posibles valores de X y se define: E[X] = µ = i i p X (i) (1.12) La media representa el centro de gravedad de la función de probabilidad. Supongamos que X 1, X 2, X 3,... X n son variables aleatorias independientes e
14 14 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS idénticamente distribuidas X i números nos indica que: 1 n d = X (i.i.d.). Entonces la ley de los grandes n X k E[X] (1.13) k=1 Si la tendencia es con probabilidad 1 se denomina ley fuerte de los grandes números. Sea Y = f(x), entonces la esperanza de Y será: E[Y ] = E[f(X)] = i f(i) p X (i) (1.14) Es fácil demostrar que: E[aX + b] = ae[x] + b y que E[ i X i] = i E[X i]. Para caracterizar el comportamiento de una distribución se emplean los momentos. Se define el momento de orden k de una variable aleatoria como: E[X k ] = i i k p X (i) (1.15) En muchas ocasiones es necesario conocer si la distribución está concentrada en torno a su media o por el contrario se encuentra dispersa, en tales casos resulta más útil utilizar momentos centrados (en la media) de orden k, que se definen como: E[(X E[X]) k ] = i (i E[X]) k p X (i) (1.16) Junto con la media, uno de los parámetros más utilizados en la caracterización de una v.a. es la varianza, que se define como el momento centrado de orden dos; esto es: V ar(x) = σ 2 = E[(X E[X]) 2 ] = i (i E[X]) 2 p X (i) = E[X 2 ] (E[X]) 2. (1.17) Se puede demostrar que V ar(ax+b) = a 2 V ar(x). A la cantidad V ar(x) = σ se le denomina desviación estándard, y tiene las mismas unidades que la media. También podemos emplear el coeficiente de variación de una variable aleatoria X, definido como C X = σ E[X]. Por último, definimos los cuantiles de probabilidad p como: χ p = ínf{u : F X (u) p} (1.18)
15 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS Variables aleatorias continuas como: En ellas es posible definir la función densidad de probabilidad f X (x) F X (u) = P (X u) = u f X (y)dy, f X (y) 0, y (1.19) Lógicamente, f X(y)dy = 1. En las v.a. continuas, P (X = x) = 0. Todas las expresiones vistas hasta ahora para la esperanza y los momentos continúan siendo válidas cambiando los sumatorios por integrales y la función de probabilidad p X (x) por la función densidad de probabilidad f X (x). Así, por ejemplo tendremos que: E[X] = V ar(x) = u f X (u)du (u E[X]) 2 f X (u)du (1.20) Las principales variables aleatorias continuas son: Uniforme: X U nif orme(a, b). Su función densidad de probabilidad es: f X (x) = { 1 b a, a x b; 0, e.o.c. (1.21) Normal: X Normal(µ, σ 2 ). Su función densidad de probabilidad viene dada por: f X (x) = 1 2π σ e (x µ)2 2σ 2 x (1.22) Esta función tiene forma de campana simétrica respecto al centro, determinado por µ, su media. La anchura vendrá fijada por σ 2, su varianza. Esta distribución es ampliamente utilizada debido al teorema del límite central que nos indica que cuando un experimento aleatorio se repite muchas veces, la variable aleatoria del valor medio tiende a una distribución normal; esto es: {X k } i.i.d. X E[X] = µ V ar[x] = σ 2 < X n = 1 n n i=1 X i n Normal(µ, σ2 n ) (1.23) Dado que las transformaciones lineales de una variable aleatoria normal continúan siendo normales, y siendo X Normal(µ, σ 2 ), si definimos Z = X µ σ, entonces Z Normal(0, 1). La función de distribución de
16 16 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS N(0, 1) se denomina Φ(z) o normal estándar y se encuentra tabulada. Los percentiles de la normal señalan que χ 0,0027 = µ ± 3σ por lo que la mayoría de los valores estarán recogidos en este rango, denominado ancho de la campana. En el caso de la normal estándar, los percentiles son: χ 0,05 = 1,645, χ 0,025 = 1,96, χ 0,01 = 2,33. Un resultado importante de la normal es que la suma de normales X i de media µ i y varianza σi 2 es también una normal de media n i µ i y varianza n i σ2 i. Relacionadas con la normal se encuentran otra serie de distribuciones de interés, como son: Chi Cuadrado: X χ 2 n, n 1, donde n son los grados de libertad. Esta variable representa la suma de n variables aleatorias normales estándard al cuadrado. i.i.d. {Z k } k=1,2,...,n N(0, 1) n Zi 2 χ 2 n (1.24) T-Student: X T n, n 1. Si Z es una variable aleatoria normal estándard, y χ 2 n es una variable independiente Chi cuadrado de n grados de libertad, entonces la variable aleatoria X, definida como: X Z χ 2 n n i=1 i.i.d. T n (1.25) tiene una distribución T-Student con n grados de libertad. Esta distribución es ampliamente utilizada para el cálculo de la media partiendo de resultados empíricos, ya que según hemos visto en el teorema del límite central X n µ σ/ N(0, 1). Si sustituimos σ por su valor n empírico S (el valor empírico de la varianza puede ser calculado como S 2 = 1 n n 1 i=1 (X i X n ) 2 ), entonces n Xn µ S T n 1. La distribución T n tiende a N(0, 1) para n, aunque para valores pequeños de n tiene una mayor variabilidad. La variable aleatoria normal se utiliza también para aproximar otras distribuciones como la binomial o la Poisson bajo ciertas condiciones. Aproximación de la Binomial: Sea X = Binomial(n, p), entonces Z = X np np(1 p) es aproximadamente una variable aleatoria normal estándard. Esta aproximación es buena para np > 5 y n(1 p) > 5 Aproximación de la Poisson: Sea X = P oisson(λ), entonces Z = X λ λ es aproximadamente una variable aleatoria normal estándard. Esta aproximación es válida para λ > 5.
17 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 17 Exponencial:X Exponencial(λ). Su función densidad de probabilidad viene dada por: f X (x) = λ e λ x, 0 x < (1.26) Su función de distribución será, por tanto, F X (x) = 1 e λ x. Es una de las distribuciones más utilizadas en el campo de las telecomunicaciones debido a su propiedad sin memoria, que formalmente se expresa P (X < t 1 + t 2 X > t 1 ) = P (X < t 2 ); esto es, el conocimiento de acontecimientos pasados no afecta al futuro. Esta propiedad sólo se da en la variable exponencial para el caso continuo y la geométrica en el caso discreto. 2. Un ejemplo de aplicación de esta propiedad sería el siguiente: supongamos que X Exp(λ) indica la duración de una conversación telefónica que comienza en t = 0. Si en t = τ comprobamos que la conversación continúa activa, la vida residual(lo que le falta para terminar) de la duración de dicha conversación podría modelarse con una variable aleatoria R = X τ, dado X > τ. Puede demostrarse que R Exp(λ) X: la vida residual no se ve afectada por el instante de tiempo τ en se examine el fenómeno. La variable aleatoria X de distribución exponencial con media 1 λ indica la distancia (en espacio o en tiempo) entre sucesivos eventos de un proceso de Poisson con media λ. Sea N(t) un Proceso de Poisson de tasa λ. Entonces: P (N(t) = k) = e λt (λt)k, k = 0, 1,... (1.27) k! Sea X i una variable aleatoria que indica el tiempo que transcurre hasta la ocurrencia del (i-1)-ésimo evento hasta el i-ésimo evento (tiempo entre eventos). Entonces: P (X 1 > t) = P (N(t) = 0) = e λt (1.28) esto es, X 1 Exp(λ). Para X 2 tenemos que P (X 2 > t X 1 = s) = P (0 eventos en (s, s + t] X 1 = s) = P (0 eventos en (s, s + t]) = e λt. De forma general el tiempo entre llegadas X i Exponencial(λ) Otra propiedad muy utilizada de la variable aleatoria exponencial es que si X 1, X 2,..., X n son variables aleatorias exponenciales de parámetros λ 1, λ 2,..., λ n respectivamente, entonces Y = mín(x 1, X 2,... X n ) tiene distribución exponencial de parámetro n i=1 λ i. Esto significa que la suma de procesos de Poisson, continúa siendo un proceso de Poisson. 2 Es lógico pues en un proceso de Poisson asumimos que un intervalo puede ser dividido en n subintervalos independientes que resultan en pruebas independientes de Bernoilli. Si en una prueba se tiene éxito o fracaso, esto no condiciona las probabilidades de éxito o fracaso de cualquier otra prueba
18 18 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Como consecuencia de lo anterior se puede demostrar que si X 1, X 2,..., X n son variables aleatorias exponenciales i.i.d. de parámetro λ, entonces E[máx(X 1, X 2,..., X n )] = n i=1 1 iλ ln(n) λ. Esto último tiene aplicación en el cálculo del tiempo de vida de un sistema en paralelo. Erlang: X Erlang(λ, r), λ > 0, r = 1, 2,.... Su función densidad de probabilidad es: f X (x) = λr x r 1 e λx, x > 0 (1.29) (r 1)! En este caso X representa el intervalo de tiempo en el que ocurren r eventos en un proceso de Poisson de media λ (o la longitud de un intervalo con r defectos). Si r = 1 entonces X Exp(1/λ). Es el equivalente en tiempo continuo a la binomial negativa. Si X 1,... X n X Exponencial(λ), entonces Y = n i=1 X i tendrá una distribución: Y Erlang(λ, n). Gamma: X Gamma(λ, r), λ > 0, r > 0. Su función densidad de probabilidad será: f X (x) = λr x r 1 e λx, x > 0 (1.30) Γ(r) Donde la función Γ(r) = 0 x r 1 e x dx es una generalización de la función factorial para valores no enteros de r, ya que se puede demostrar que Γ(r) = Γ(r 1) (r 1), con Γ(1) = 0! y Γ(1/2) = π 2, por lo que cuando r es un entero Γ(r) = (r 1)!. Lógicamente Gamma(λ, r) Erlang(λ, r) para r = 0, 1, 2,.... Hiperexponencial-n: X HiperExp(α 1, α 2,..., α n, λ 1, λ 2,..., λ n ), 0 α i 1, λ i 0, n i=1 α i = 1. Su función de distribución es: f X (x) = n α i λ i e λi x, x 0 (1.31) i=1 Esta variable aleatoria permite modelar mixturas de variables exponenciales con diferentes parámetros (λ i ) y distintas probabilidades de ocurrencia para cada una (α i ). En el caso de n = 2 se puede interpretar como realizar un experimento de Bernouilli con probabilidad de éxito α 1 para elegir cual de las dos exponenciales voy a utilizar (si λ 1 ó λ 2 ). La correspondiente función de distribución es: F X (x) = 1 n i=1 α 1e λ i x.
19 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 19 Weibull: X W eibull(δ, β), β 0, δ 0. Su función de distribución es: f X (x) = β δ (x δ )β 1 e ( x δ )β, x > 0 (1.32) Esta variable aleatoria es utilizada para modelar el tiempo entre llegadas en un sistema en que la tasa de llegadas se incrementa (o decrementa) con el tiempo. Al δ se le denomina parámetro de escala mientras que a β representa el parámetro de forma. Lógicamente si β = 1 implica que la tasa de llegadas permanece constante y tendremos la distribución exponencial. La función de distribución de la Weibull es F X (x) = 1 e (x/δ) β. Pareto: X P areto(γ, k), γ > 0, k > 0. Su función densidad de probabilidad es: f X (x) = γkγ x γ+1 = γ k (k x )γ+1, k x. (1.33) y su función de distribución es: F X (x) = 1 (k/x) γ, k x. Es una distribución muy utilizada en telecomunicación, debido a que su función densidad de probabilidad decae lentamente (distribución de cola pesada), lo que permite modelar tráfico con una varianza elevada en diferentes escalas de tiempo. Este tipo de tráfico, denominado autosimilar, se emplea para modelar muchos aspectos de las redes de datos como el tráfico en las redes de área local, la duración de las sesiones en Internet,.... En general, una variable aleatoria se denomina de cola pesada si: P (X > (x)) x α, 0 < α 2 es decir, cuando f X (x) αx (α+1). Se puede demostrar que en tal caso, su media no converge para α 1 y la E[X 2 ] tampoco converge para α 2, por lo que ambas serán. En el caso de la distribución Pareto se puede verificar que es de cola pesada si 0 < γ 2, donde su valor medio para γ > 1 es: E[X i ] = γki γ i y su varianza E[(X µ)2 ] para γ > 2 es: σ 2 = γk 2 (γ 1) 2 (γ 2). En el cuadro siguiente se resumen las principales caracterísitcas de las v.a. vistas: Otros parámetros como el coeficiente de variación (C X ) o el momento no centrado de orden 2 (E[X 2 ]) pueden obtenerse mediante manipulación simple de los valores anteriores
20 20 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Distribución E[X] = µ E[ ( X µ) 2 ] = σ 2 Bernouilli(p) p - Binomial(n,p) np np (1 p) Poisson(λ) λ λ (1 p) p 2 1 Geométrica(p) p HiperGeo(N,n,k) np np(1 p)( N n BinNeg(n,p) Uniforme(a,b) n p a+b 2 Normal(µ, σ 2 ) µ σ 2 N 1 ) n(1 p) p 2 (b a) 2 2 χ 2 n n 2n T n 0, n > 1 n n 2, n > 2 Exponencial(λ) 1 1 Erlang(λ, r) Gamma(λ, r) λ r λ r λ n i=1 α i λ i λ 2 r λ 2 r λ 2 HiperExp n (α i, λ i ) 2 n i=1 α i ( n λ 2 i=1 α i λ i i ) 2 Weibull(δ, β) δγ(1 + 1 β ) δ2 Γ(1 + 2 β ) δ2 [Γ(1 + 1 β )]2 Pareto(γ, k) γk γ 1 γk 2 (γ 1) 2 (γ 2), γ > 2 Cuadro 1.1: Media y varianza de las v.a Funciones de variables aleatorias Múltiples variables aleatorias En el caso discreto, podremos definir la función de probabilidad conjunta de p variables aleatorias como: f X1,X 2,...,X p (x 1, x 2,..., x p ) = P (X 1 = x 1, X 2 = x 2,..., X p = x p ) (1.34), donde la función marginal de probabilidad de una de ellas, X i, vendrá dada por la expresión: f Xi (x i ) = P (X i = x i ) = R xi f X1,X 2,...,X p (x 1, x 2,..., x p ) (1.35), siendo R xi el conjunto de puntos del rango de (X 1, X 2,..., X p ) para los cuales X i = x i. La esperanza y la varianza de la variable X i vendrán dadas por: E[X i ] = R x i f X1,X 2,...,X p (x 1, x 2,..., x p ) = µ Xi σ 2 X i = R (x i µ Xi ) 2 f X1,X 2,...,X p (x 1, x 2,..., x p ) (1.36)
21 1.3. FUNCIONES DE VARIABLES ALEATORIAS 21 Donde R es el conjunto de todos los puntos del rango (X 1, X 2,..., X p ). En ocasiones resulta de utilidad hallar la función de probabilidad de un conjunto de k, (k < p) variables aleatorias: f X1,X 2,...,X k (x 1, x 2,..., x k ) = P (X 1 = x 1, X 2 = x 2,..., X k = x k ) = f X1,X 2,...,X p (x 1, x 2,..., x p )(1.37) R x1,x 2,...,x k,siendo R x1,x 2,...,x k el conjunto de todos los puntos de X 1, X 2,... X p para lod cuales X 1 = x 1, X 2 = x 2,..., X k = x k. Podremos afirmar que las variables X 1, X 2,..., X p son independientes si y solo si: f X1,X 2,...,X p (x 1, x 2,..., x p ) = f X1 (x 1 ) f X2 (x 2 )... f Xp (x p ), x 1, x 2,... x p (1.38) Distribución multinomial: Es una extensión de la binomial. Se supone un experimento aleatorio consistente en una serie de n intentos o repeticiones, donde se asume que: El resultado de cada intento es clasificado en una entre k clases La probabilidad de que un intento genere resultado de las clases 1, 2,..., k es constante sobre los intentos e igual a p 1, p 2,..., p k respectivamente, donde k i=1 p i = 1. Los intentos son independientes Las variables aleatorias X 1, X 2,..., X k, que representan el número de intentos que resultan de cada clase, tienen una función de distribución multinomial, con una función de probabilidad conjunta igual a: f X1,X 2,...,X k (x 1, x 2,..., x k ) = n! x 1!, x 2!,..., x k! px 1 1 px px k k, x 1+x x k = n (1.39), donde la función marginal de probabilidad de X i será una binomial con E[X i ] = n p i y σ 2 X i = n p i (1 p i ). En el caso de las variables aleatorias continuas 3, definimos las función densidad de probabilidad conjunta de las variables aleatorias X 1, X 2,... X p como f X1,X 2,...,X p (x 1, x 2,..., x p ) 0 que cumple, para región B del espacio p-dimensional: 3 Un caso de fácil aplicación puede ser las dimensiones de una pieza fabricada
22 22 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS B... f X1,X 2,...,X p (x 1, x 2,..., x p ) = P ([X 1, x 2,..., X p ]ɛb) (1.40), donde... f X 1,X 2,...,X p (x 1, x 2,..., x p ) = 1. La función marginal de probabilidad de una de ellas, X i, vendrá dada por la expresión: f Xi (x i ) = P (X i = x i ) =... R xi f X1,X 2,...,X p (x 1, x 2,..., x p )dx 1 dx 2... dx p (1.41), siendo R xi la región del rango de (X 1, X 2,..., X p ) para los cuales X i = x i. La esperanza y la varianza de la variable X i vendrán dadas por: E[X i ] = σ 2 X i = x i f X1,X 2,...,X p (x 1, x 2,..., x p )dx 1 dx 2... dx p = µ Xi (x i µ Xi ) 2 f X1,X 2,...,X p (x 1, x 2,..., x p )dx 1 dx 2... dx p, donde R es el conjunto de todos los puntos del rango X 1, X 2,..., X p. La función de probabilidad de un conjunto de k, (k < p) variables aleatorias de define de forma similar al caso de variables discretas pasando los sumatorios al caso continuo. La independencia se define igual que en el caso discreto. Distribución Normal bivariada: Es la extensión de la distribución normal para dos variables aleatorias. f XY (x, y; σ X, σ Y, µ X, µ Y, ρ) = 1 2πσ X σ e Y 1 ρ 2 1 2(1 ρ 2 [ (x µ X )2 ) σ X 2 2ρ(x µ X )(y µ Y ) + (y µ Y )2 σ X σ Y σ Y 2 ] (1.42) Covarianza y Correlación Mide la relación entre dos o más variables aleatorias definidas en un espacio probabilístico. Se define la covarianza de dos variables aleatorias de la siguiente manera: Cov(X, Y ) = σ XY = E[(X E[X])(Y E[Y ])] = E[XY ] E[X] E[Y ]. (1.43) La convarianza es una medida de la asociación lineal entre dos variables aleatorias. Si la relación no es lineal, la covarianza puede no ser sensible a esta relación entre variables.
23 1.3. FUNCIONES DE VARIABLES ALEATORIAS 23 Si dos variables aleatorias X e Y son independientes, entonces Cov(X, Y ) = 0 y V ar(x +Y ) = V ar(x)+v ar(y ). En general, puede observarse que cuando la Cov(X, Y ) > 0, entonces Y tiende a incrementar su valor cuando X también lo hace. Un valor Cov(X, Y ) < 0 implica generalmente que Y tiende a decrecer cuando X crece. Para ver la relación entre dos variables X e Y se suele emplear la función de correlación, ya que es una cantidad adimensional que oscila entre +1 y -1 definida como: Corr(X, Y ) = ρ XY = Cov(X, Y ) V ar(x) V ar(y ) (1.44) Si ρ XY > 0, las variables estarán correladas, y si ρ XY = 1, la relación entre ellas será lineal. En caso de variables independientes, ρ XY = σ XY = Combinación lineal de variables aleatorias Dadas las variables aleatorias X 1, X 2,..., X n y las constantes c 1, c 2,..., c n, definimos la siguiente combinación lineal: Y = c 1 X 1 + c 2 X c n X n. Entonces tenemos que: n E[Y ] = E[ c i X i ] = i=1 n c i E[X i ] (1.45) i=1 El cálculo de σy 2 es más complejo. De la definición de convarianza, es fácil verificar que ésta cumple con las siguientes propiedades: Cov(X, X) = V ar(x) Cov(aX, Y ) = a Cov(X, Y ) Cov( n i=1 X i, m j=1 Y i) = n i=1 m j=1 Cov(Y j, X i ) De lo que se desprende como corolario que: ( n ) n n σy 2 = V ar c i X i = c 2 i V ar(x i ) + i=1 i=1 n i=1 j i j =1 c 2 i c 2 jcov(x j, X i ) (1.46) En el caso de que X 1 X 2,..., X n sean independientes se cumplirá que σ 2 Y = n i=1 c iσ 2 X i. El caso de querer encontrar la distribución de la combinación lineal de variables aleatorias tendremos que emplear la convolución. Sean X 1, X 2 dos variables aleatorias discretas, y sea Y = X 1 + X 2. En tal caso, P (Y = y) = y P (X 1 = i)p (X 2 = y i) (1.47) i=0
24 24 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Ejemplo:demuestre que la suma de dos variables independientes de Poisson de media λ 1 t y λ 2 t respectivamente es una variable de Poisson de media (λ 1 + λ 2 )t. (sugerencia: utilice la expansión binomial (x+y) n = n i=0 (n i ) xi y n i ; n 0.) En el caso de variables continuas, tendríamos f Y (y) = Mixtura de variables aleatorias f X1 (z)f X2 (z y)dz (1.48) La mixtura de variables aleatorias resulta más sencilla que la combinación lineal de las mismas. Supongamos que tenemos X 1, X 2,..., X n variables aleatorias independientes, y que la probabilidad de elegir una aleatoriamente es c 1, c 2,... c n para X 1, X 2,..., X n respectivamente, donde n i=1 c i = 1. Entonces podemos definir la mixtura de todas ellas como Y = c 1 X 1 c 2 X 2 c 3 X 3... c n X n (1.49), donde f Y (y) = n i=1 c if Xi (y). Es fácil demostrar que en las mixturas de variables aleatorias, el momento no centrado de orden i cumple: E[Y i ] = n c j E[Xj] i (1.50) j=1 Para el caso de dos variables aleatorias independientes X 1 y X 2 se puede interpretar como un experimento de Bernouilli con probabilidad c 1 de tomar el valor ofrecido por X 1 y 1 c 1 de tomar el valor ofrecido por X Límites y desigualdades Desigualdad de Markov Sea h(x) una función positiva no decreciente 4, y sea X una variable aleatoria con función densidad de probabilidad f X (x). Entonces, E[h(x)] = h(x)f X (x)dx h(x)f X (x)dx h(t)p (X t) (1.51) lo que puede reescribirse como la desigualdad de Markov: 4 Por ejemplo: h(x) = x, o h(x) = e αx
25 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 25 P (X t) E[h(t)] h(t) (1.52) Para el caso de h(x) = xu(x), siendo X una variable aleatoria no negativa y U(x) la función escalón, tendremos la expresión simple P (X t) E[X] t ; t Desigualdad de Chebyshev Se deduce de la desigualdad de Markov y nos permite inferir valores para las probabilidades de una variable aleatoria dado sus momentos. Esta desigualdad estable que: P ( X E[X] ε) σ2 X ε (1.53) Límite de Chernoff Este límite se deriva también de la desigualdad de Markov para h(t) = e αt, α 0, ofreciendo el siguiente resultado: P (X d) e αd E[e αx ] = e αd X( α); α 0 (1.54),donde X( α) es la transformada de Laplace 5 de la función densidad de probabilidad evaluada en α Ley de los grandes números También resulta como aplicación de la desigualdad de Chebychev. Si consideramos n variables aleatorias independientes e idénticamente distribuidas (iid), X 1, X 2,... X n, con media µ y varianza σ 2, la variable aleatoria media X = (1/n) n i=1 X i tendrá media µ y varianza σ 2 /n. Sustituyendo en la desigualdad de Chebychev tendremos que: σ 2 lím P ( X µ ε) lím n n nε 2 ; ε 0 (1.55) 1.5. Introducción a los procesos estocásticos Un proceso estocástico es un modelo probabilístico de un sistema que evoluciona de forma aleatoria. Si el sistema se observa en instantes de tiempos discretos n = 0, 1, 2,... y X n es el estado del sistema en el instante n, entonces {X n, n 0} es un proceso estocástico de tiempo discreto. Ejemplos de este 5 E[X] = R 0 f X (x)e sx dx
26 26 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS caso pueden ser el índice Down-Jones al final de la n-ésima semana, número de paquetes perdidos en un router al final de n-ésimo día,... Si el sistema es observado de manera continua en el tiempo t, entonces {X(t), t 0} es un proceso estocástico de tiempo continuo. Por ejemplo el número de ordenadores averiados en un instante determinado del día t o la posición de un huracán en un momento dado. De manera más formal, podemos definir un proceso estocástico como una colección de variables aleatorias {X(α), α T } indexadas por el parámetro α que toma valores en el conjunto T. Las variables aleatorias toman valores en el espacio de estados S. En una gran cantidad de aplicaciones el parámetro α representa el tiempo. Es posible distinguir dos casos: cuando T = 0, 1, 2,... escribiremos {X n, n 0} en lugar de {X(α), α T } y cuando T = [0, ) utilizaremos la notación {X(t), t 0} en lugar de {X(α), α T }. Cualquier posible evolución o trayectoria del proceso estocástico se denominan caminos muestrales y, en general, existen infinitos. Como los procesos estocásticos siguen uno de los caminos muestrales de forma aleatoria, en ocasiones se les denomina función aleatoria. Uno de los objetivos del estudio de los procesos estocásticos es comprender el comportamiento de los caminos muestrales a fin de predecir y controlar el futuro del sistema. Para caracterizar completamente a un proceso estocástico cuyo conjunto de parámetros T sea finito, bastará con la función de distribución conjunta de todas las variables aleatorias. En el caso de que T = 0, 1, 2,..., sea infinito necesitaremos una familia consistente de funciones de distribución conjunta, que es aquella que cumple que F n (x 0, x 1,..., x n ) = F n+1 (x 0, x 1,..., x n, ). Para el caso continuo, y supuesto que todas las trayectorias son continuas por la derecha, el proceso quedará descrito por una familia consistente de funciones de distribución conjunta de dimensión finita: F t1,t 2,...,t n (x 1, x 2,..., x n ) = P (X(t 1 ) x 1, X(t 2 ) x 2,... X(t n ) x n ) (1.56) El proceso estocástico más simple sería el formado por {X n, n 1} donde X n es una secuencia de variables aleatorias independientes y idénticamente distribuidas (i.i.d.) con una función de distribución común. en tal caso: n F n (x 1, x 2,..., x n ) = F (x i ), < x i < (1.57) i=1 Ejemplo: Supongamos ahora un proceso {X n, n 1} como el anterior, y definimos el proceso estocástico {S n, n 0} de la siguiente manera: S 0 = 0, S n = X 1 + X X n, n 1 (1.58)
27 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 27 Este proceso se conoce como random walk, y también se encuentra completamente caracterizado por la función de distribución conjunta de X. Qué es posible realizar con un proceso estocástico? en primer lugar debemos definirlo; esto es, identificar la estructura básica del proceso, conjunto de distribuciones y parámetros que permiten caracterizarlo. Es posible también estudiar el comportamiento transitorio, es decir, la función de distribución marginal de X n o X(t) para un valor determinado de n o de t, aunque debido a la complejidad de esta tarea 6 en ocasiones tendremos que conformarnos tan sólo con los momentos. En tercer lugar también podremos estudiar el comportamiento límite del proceso cuando n o t tiende a infinito. Para ello debemos en primer lugar analizar la convergencia del proceso: identificar las condiciones bajo las cuales ocurre y desarrollar métodos para computar las distribuciones límites (para ello emplearemos herramientas matemáticas como álgebra matricial, sistemas de ecuaciones diferenciales y métodos numéricos). En cuarto lugar será posible calcular el tiempo de primera estancia; esto es, cuánto tarda el sistema en alcanzar un conjunto particular de estados. Concretamente esto supone estudiar la variable aleatoria T = min{n 0 : X n B} para el tiempo discreto o T = min{t 0 : X(t) B} para el tiempo continuo. Por último, si somos capaces de asociar costes y beneficios de los diversos estados podemos evaluar comparativas de diferentes políticas que influyen en la evolución del proceso Cadenas de Markov de tiempo discreto: DTMC En el caso de tiempo discreto, tendremos una colección de variables aleatorias X 0, X 1, X 2,... con valores discretos 7. Un proceso estocástico X n, n 0 se denomina DTMC con espacio de estados S si: para todo n 0, X n S con probabilidad 1 para todo n 0, x S, A S, B S n, se cumple que P (X n+1 A X n = x, (X 0, X 1,..., X n 1 ) B) = P (X n+1 A X n = x) Esta última propiedad, en virtud de la cual el estado futuro del sistema tan sólo depende del estado presente, y no del pasado, se denomina propiedad de Markov 8 6 Muy pocos procesos, por ejemplo el proceso de Poisson, tienen expresiones simples para las distribuciones en el transitorio 7 Finito o con la cardinalidad de los números naturales 8 Si la dependencia con el tiempo se disipa en más de un paso puedo considerar pares o ternas de valores (X n, X n 1) y utilizar DTMC. Esta técnica debe aplicarse con precaución pues multiplica el número de estados SxS por lo tanto no se puede utilizar para más de 2 o 3
28 28 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Para el caso de que S sea contable, utilizaremos la siguiente notación: p ij (n) = P (X n+1 = j X n = i) (1.59) A partir de este momento supondremos que S es contable y que la DTMC es homogenea en el tiempo (p ij (n) = p ij n). En general, las DTMC se aplican cuando tenemos series temporales de la forma X n+1 = f(x n, Y n+1 ), donde f es una función, e Y n+1 es un ruido que sólo depende del valor presente y no de la historia del proceso (Y n+1 X0 X 1 X 2... X n 1 ). Ejemplo:suponer un buffer con b posiciones al que llegan paquetes según un proceso. Y n indica el número de paquetes que llegan en el instante n. El buffer procesa un paquete por unidad de tiempo. Sea X n la ocupación del buffer en el instante n. Entonces la dinámica del proceso quedaría descrita por X n+1 = min((x n 1) + + Y n+1, b), y las probabilidades de transición serían: P (Y n+1 = j), P (Y n+1 j), p ij = P (X n+1 = j X n = i) = P (Y n+1 = j i + 1), P (Y n+1 b i + 1 =), i = 0, j < b i = 0, j = b i > 0, j < b i > 0, j = b (1.60) La matriz P = [p ij ] con las probabilidades condicionales para el salto de estado se denomina matriz de transición de probabilidades a un paso es una matriz estocástica pues satisface que p ij 0 i, j S, así como j S p ij = 1 i S. En general, una DTMC X = {X n, n 0} con espacio de estados S queda completamente caracterizada por la matriz de probabilidades de transición P y el vector a = (a i ) i S con la distribución inicial (a i = P (X 0 = i)). Normalmente a sólo influirá en el cálculo de las distribuciones marginales. En tal caso, definimos: a (n) j = P (X n = j) = i S P (X n = j X 0 = i)a i (1.61) Para el cálculo de P (X n = j X 0 = i) = p (n) ij propiedad Markoviana, por lo que: tendremos en cuenta la pasos. En el caso de dependencias temporales mayores es posible emplear series autoregresivas para determinar previsiones de medias y varianzas en el futuro
29 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 29 P (X n+m = k X 0 = i) = j S P (X n = j X 0 = i)p (X n+m = k X n = j) = j S P (X n = j X 0 = i)p (X m = k X 0 = j) (1.62) Lo que da lugar a la ecuación de Chapman-Kolmogorov: p (n+m) ik = j S p(n) ij p(m) jk, que también se expresa de forma matricial como: P (n+m) = P (n) P (m), donde P (n) = P n. Ejemplo:determine P (X 1 = 1, X 3 = 2, X 7 = 3). Solución: P (X 1 = 1) p (2) 12 p (4) 23 Para el cálculo de probabilidades a largo plazo en un DTMC, definimos frecuencia de ocupación de estados a largo plazo como: p i = lím n > frecuencia esperada a largo plazo 1 n + 1 n 1 {Xk =i} (1.63) k=0 lím n > 1 n + 1 n P (X k = i) (1.64) k=0 probabilidad estacionaria de ocupación del estado i: si existe una distribución de probabilidad (π i ) i S, que cumple con π i = j S π jp ji (en forma vectoría sería π = π P ), donde P es la matriz de transición a un paso, entonces π = (π i ) i S es un vector con las distribuciones en régimen estacionario (estado de equilibrio). Caso de existir, para el cálculo de las probabilidades en estado estable π i tendríamos que resolver el siguiente sistema de ecuaciones: π i = π j p ji (1.65) j S π j = 1 (1.66) j S No siempre existe la probabilidad estacionaria: supongamos que la cadena oscila entre dos estados alternativamente o que la cadena queda atrapada en un subconjunto de estados y tenemos que descomponer la solución para cada región. Por ello debemos, en primer lugar, determinar bajo qué condiciones es
30 30 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS posible encontrar la probabilidad estacionaria. Para ello definimos el concepto de accesibilidad: diremos que el estado j es accesible desde el estado i si: i j n : p (n) ij > 0. Dos estados son comunicantes si son accesibles en ambos sentidos. Cuando tenemos un conjunto de estados que son comunicantes entre si, podemos denominarlo clase comunicante. Definimos una clase comunicante A i como cerrada siempre que si i A i y j / A i implica que j no es accesible desde i. Una vez que una cadena visita una clase cerrada comunicante ya no puede salir de ella. Una DTMC se denomina irreductible si todos sus estados pertenecen a una sóla clase cerrada comunicante, y en ella todos los estados se pueden comunicar con el resto de estados. Podemos pues descomponer el espacio de estados S = T A 1 A 2..., donde el subconjunto T contiene todos los estados transitorios (un estado i : P (X n = i para algunn 1 X 0 = i) < 1), esto es, un estado que es posible que no vuelva a ser visitado). Y los subconjuntos A i contienen clases comunicantes con estados recurrentes (lo opuesto de transitorio), que a su vez pueden ser recurrentes nulos (si E[ínf n 1:Xn =i X 0 = i] =, el retorno al estado sucede con probabilidad 1 pero en tiempo ) y en recurrente positivo (si E[ínf n 1:Xn=i X 0 = i] <, el retorno al estado sucede con probabilidad 1 pero en tiempo finito). Si una DTMC es irreductible y recurrente positiva 9, con número finito de estados, podemos afirmar que sólo existe un solución para π i que coincide con la frecuencia de ocupación de estados. p i = π i =, luego lím n > P (X n = i) = π i. lím n > 1 n + 1 n P (X k = i) (1.67) k= Introducción a las cadenas de Markov en tiempo continuo En ellas las probabilidades de transición se sustituyen por tasas de transición. Definimos r ij como la tasa de transición del estado i para el estado j. Es posible imaginar conceptualmente las cadenas en tiempo continuo como una competición entre transiciones, la primera que expira provoca un cambio de estado tras el cual se comienza de nuevo. Si definimos r i = j S,j i r ij como la tasa de salida del estado i, entonces p ij = r ij r i sería la probabilidad de transición del estado j cuando partimos del estado i 10. En el caso de cadenas de tiempo continuo aparece el concepto de matriz 9 para comprobarlo basta con hacer un test a un sólo estado 10 el tiempo de permanencia en los estados se supone exponencial
31 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 31 generadora inifinitesimal ϕ = (q ij ), donde: { r ij, q ij = r i, i j i = j (1.68) La matriz de transición en el tiempo P (t) = (p ij (t)) = P (X(t) = j X(0) = i) de una cadena de Markov de tiempo contínuo que cumple: por lo que la solución viene dada por d P (t) = ϕp (t) (1.69) dt P (t) = e ϕ t = k=0 ϕ k t k k! (1.70) Para el cómputo de estas probabilidades tendremos, normalmente, problemas numéricos, por lo que una solución muy utilizada es la uniformización del proceso que consiste en discretizar las observaciones por una cadena embebida de Markov de tiempo discreto. Este método permite tratar el caso continuo como si fuera un caso discreto, donde el proceso de Poisson uniformizador debe tener una tasa q máx j S r j, lo que nos lleva a matrices de transición del proceso uniformizado ˆP = I + ϕ q. Los procesos en tiempo continuo que utilizaremos a lo largo del presente año serán los de nacimiento y muerte, desarrollados en el próximo tema.
T.1 CONVERGENCIA Y TEOREMAS LÍMITE
T.1 CONVERGENCIA Y TEOREMAS LÍMITE 1. CONVERGENCIA DE SUCESIONES DE VARIABLES ALEATORIA CONVERGENCIA CASI-SEGURA CONVERGENCIA EN PROBABILIDAD CONVERGENCIA EN MEDIA CUADRÁTICA CONVERGENCIA EN LEY ( O DISTRIBUCIÓN)
Más detallesTeoría de Colas o Fenómenos de Espera
Teoría de Colas o Fenómenos de Espera Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Introducción 2 Introducción............................................................
Más detallesTema 3: Variables aleatorias y vectores aleatorios bidimensionales
Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos
Más detallesMétodos generales de generación de variables aleatorias
Tema Métodos generales de generación de variables aleatorias.1. Generación de variables discretas A lo largo de esta sección, consideraremos una variable aleatoria X cuya función puntual es probabilidad
Más detallesCadenas de Markov. http://humberto-r-alvarez-a.webs.com
Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados. Estos
Más detallesTema 3: Aplicaciones de la diagonalización
TEORÍA DE ÁLGEBRA II: Tema 3. DIPLOMATURA DE ESTADÍSTICA 1 Tema 3: Aplicaciones de la diagonalización 1 Ecuaciones en diferencias Estudiando la cría de conejos, Fibonacci llegó a las siguientes conclusiones:
Más detallesVECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.
VECTORES El estudio de los vectores es uno de tantos conocimientos de las matemáticas que provienen de la física. En esta ciencia se distingue entre magnitudes escalares y magnitudes vectoriales. Se llaman
Más detallesTema 5. Variables aleatorias discretas
Tema 5. Variables aleatorias discretas Resumen del tema 5.1. Definición de variable aleatoria discreta 5.1.1. Variables aleatorias Una variable aleatoria es una función que asigna un número a cada suceso
Más detallesESTIMACIÓN. puntual y por intervalo
ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio
Más detallesDistribuciones Multivariantes. Distribuciones Multivariantes. Distribuciones Multivariantes. Objetivos del tema:
Distribuciones Multivariantes Distribuciones Multivariantes Distribución conjunta de un vector aleatorio Objetivos del tema: Distribuciones marginales y condicionadas Al final del tema el alumno será capaz
Más detalles1 Introducción... 2. 2 Distribución exponencial... 2. 3 Distribución Weibull... 6. 4 Distribuciones Gamma y k-erlang... 10
Asignatura: Ingeniería Industrial Índice de Contenidos 1 Introducción... 2 2 Distribución exponencial... 2 3 Distribución Weibull... 6 4 Distribuciones Gamma y k-erlang... 10 5 Distribución log-normal...
Más detallesTema 2 Límites de Funciones
Tema 2 Límites de Funciones 2.1.- Definición de Límite Idea de límite de una función en un punto: Sea la función. Si x tiende a 2, a qué valor se aproxima? Construyendo - + una tabla de valores próximos
Más detallesTema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice
Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice 1 Polinomios Dedicaremos este apartado al repaso de los polinomios. Se define R[x] ={a 0 + a 1 x + a 2 x 2 +... +
Más detallesCovarianza y coeficiente de correlación
Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también
Más detallesVectores aleatorios. Estadística I curso 2008 2009
Vectores aleatorios Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 En numerosas ocasiones estudiamos más de una variable asociada a
Más detalles9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES
9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES Objetivo Introducir la idea de la distribución conjunta de dos variables discretas. Generalizar las ideas del tema 2. Introducir la distribución normal
Más detallesMATEMÁTICAS APLICADAS A LAS C.C. SOCIALES
MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES CAPÍTULO 7 Curso preparatorio de la prueba de acceso a la universidad para mayores de 25 años curso 2010/11 Nuria Torrado Robles Departamento de Estadística Universidad
Más detallesTema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES
Tema 07 LÍMITES Y CONTINUIDAD DE FUNCIONES Límite de una función en un punto Vamos a estudiar el comportamiento de las funciones f ( ) g ( ) ENT[ ] h ( ) i ( ) en el punto Para ello, damos a valores próimos
Más detalles35 Facultad de Ciencias Universidad de Los Andes Mérida-Venezuela. Potencial Eléctrico
q 1 q 2 Prof. Félix Aguirre 35 Energía Electrostática Potencial Eléctrico La interacción electrostática es representada muy bien a través de la ley de Coulomb, esto es: mediante fuerzas. Existen, sin embargo,
Más detallesTema 3. Variables aleatorias. Inferencia estadística
Estadística y metodología de la investigación Curso 2012-2013 Pedro Faraldo, Beatriz Pateiro Tema 3. Variables aleatorias. Inferencia estadística 1. Introducción 1 2. Variables aleatorias 1 2.1. Variable
Más detallesUna invitación al estudio de las cadenas de Markov
Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Introducción
Más detallesMATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas
Universidad de Cádiz Departamento de Matemáticas MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Tema 4 La recta en el plano Elaborado por la Profesora Doctora María Teresa
Más detalles1. a) Definimos X =número de personas con síntomas si examino sólo una persona, la cual sigue una distribución B(1, p), donde
Soluciones de la relación del Tema 6. 1. a) Definimos X =número de personas con síntomas si examino sólo una persona, la cual sigue una distribución B1, p), donde p = P X = 1) = P la persona presente síntomas)
Más detallesTema 5: Vectores aleatorios bidimensionales.
Estadística 52 Tema 5: Vectores aleatorios bidimensionales. Hasta ahora hemos estudiado las variables aleatorias unidimensionales, es decir, los valores de una característica aleatoria. En muchos casos,
Más detallesApuntes de Matemática Discreta 1. Conjuntos y Subconjuntos
Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Francisco José González Gutiérrez Cádiz, Octubre de 2004 Universidad de Cádiz Departamento de Matemáticas ii Lección 1 Conjuntos y Subconjuntos
Más detallesENERGÍA DE DEFORMACIÓN DE UNA ESTRUCTURA
ENERGÍA DE DEFORMACIÓN DE UNA ESTRUCTURA 1. Hipótesis empleadas Las hipótesis que supondremos en este capítulo son: Material elástico lineal. Estructura estable La estructura es cargada lentamente. La
Más detalles2.2 Transformada de Laplace y Transformada. 2.2.1 Definiciones. 2.2.1.1 Transformada de Laplace
2.2 Transformada de Laplace y Transformada 2.2.1 Definiciones 2.2.1.1 Transformada de Laplace Dada una función de los reales en los reales, Existe una función denominada Transformada de Laplace que toma
Más detallesVariables aleatorias continuas
Variables aleatorias continuas Hemos definido que una variable aleatoria X es discreta si I X es un conjunto finito o infinito numerable. En la práctica las variables aleatorias discretas sirven como modelos
Más detallesSelectividad Septiembre 2009 SEPTIEMBRE 2009. Opción A
SEPTIEMBRE 2009 Opción A 1.- Como cada año, el inicio del curso académico, una tienda de material escolar prepara una oferta de 600 cuadernos, 500 carpetas y 400 bolígrafos para los alumnos de un IES,
Más detallesNivelación de Matemática MTHA UNLP 1. Vectores
Nivelación de Matemática MTHA UNLP 1 1. Definiciones básicas Vectores 1.1. Magnitudes escalares y vectoriales. Hay magnitudes que quedan determinadas dando un solo número real: su medida. Por ejemplo:
Más detallesUNIDAD 4 PROCESOS DE MARKOV
UNIDAD 4 PROCESOS DE MARKOV Anteriormente se han cubierto modelos estáticos, esto es, modelos cuyos parámetros permanecen sin cambio a través del tiempo. Con excepción de programación dinámica donde se
Más detallesPrograma para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones
Fracciones. Las fracciones y los números Racionales Las fracciones se utilizan cotidianamente en contextos relacionados con la medida, el reparto o como forma de relacionar dos cantidades. Tenemos entonces
Más detalles2. Probabilidad. Estadística. Curso 2009-2010. Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24
2. Probabilidad Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24 Contenidos 1 Experimentos aleatorios 2 Algebra de sucesos 3 Espacios
Más detallesLíneas de espera. Introducción.
Líneas de espera. Introducción. En este capítulo se aplica la teoría de colas. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas
Más detallesDISEÑO DEL SOFTWARE TRAFFIC ANALYZER. Analyzer. En este capítulo se reporta el desarrollo que se llevó a cabo para realizar el software
3 Diseño del Software Traffic Analyzer En este capítulo se reporta el desarrollo que se llevó a cabo para realizar el software que analiza el tráfico en redes de telefonía y computadoras, denominado Traffic
Más detallesCurso: Métodos de Monte Carlo Unidad 2, Sesión 6: Integración por Monte Carlo
Curso: Métodos de Monte Carlo Unidad 2, Sesión 6: Integración por Monte Carlo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo,
Más detallesTema 1: Test de Distribuciones de Probabilidad
Tema 1: Test de Distribuciones de Probabilidad 1.- Una compañía de seguros tiene 1000 asegurados en el ramo de accidentes. Si la el modelo mejor para el número de siniestros en un año es: a) Normal (5;,3).
Más detallesPROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS
PROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS Grupos P y P (Prof. Ledesma) Problemas. Variables aleatorias..- Sea la v.a. X que toma los valores - y con probabilidades, y, respectivamente y
Más detallesSistemas de Generación de Energía Eléctrica HIDROLOGÍA BÁSICA. Universidad Tecnológica De Pereira
2010 Sistemas de Generación de Energía Eléctrica HIDROLOGÍA BÁSICA Universidad Tecnológica De Pereira Conceptos Básicos de Hidrología La hidrología es una ciencia clave en el estudio de los sistemas de
Más detallesSoluciones Examen de Estadística Ingeniería Superior de Telecomunicación
Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación de Septiempbre, 00 Cuestiones 1h C1. El tiempo que un ordenador tarda en ejecutar una tarea es una v.a. Y Expλ). Para hacer un estudio
Más detallesTema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor
Tema 5 Aproximación funcional local: Polinomio de Taylor Teoría Los polinomios son las funciones reales más fáciles de evaluar; por esta razón, cuando una función resulta difícil de evaluar con exactitud,
Más detallesSelectividad Septiembre 2013 OPCIÓN B
Pruebas de Acceso a las Universidades de Castilla y León ATEÁTICAS APLICADAS A LAS CIENCIAS SOCIALES EJERCICIO Nº páginas Tablas OPTATIVIDAD: EL ALUNO DEBERÁ ESCOGER UNA DE LAS DOS OPCIONES Y DESARROLLAR
Más detallesSea T R y (Ω, F, P ) un espacio de probabilidad. Un proceso aleatorio es una función
Capítulo 2 Cadenas de Markov 21 Introducción Sea T R y (Ω, F, P ) un espacio de probabilidad Un proceso aleatorio es una función X : T Ω R tal que para cada t T, X(t, ) es una variable aleatoria Si fijamos
Más detallesLímites y Continuidad de funciones
CAPITULO Límites y Continuidad de funciones Licda. Elsie Hernández Saborío Instituto Tecnológico de Costa Rica Escuela de Matemática Revista digital Matemática, educación e internet (www.cidse.itcr.ac.cr)
Más detallesEL MÉTODO DE LA BISECCIÓN
EL MÉTODO DE LA BISECCIÓN Teorema de Bolzano Sea f : [a, b] IR IR una función continua en [a, b] tal que f(a) f(b) < 0, es decir, que tiene distinto signo en a y en b. Entonces, existe c (a, b) tal que
Más detallesLÍMITES Y CONTINUIDAD
UNIDAD 5 LÍMITES Y CONTINUIDAD Páginas 0 y Describe las siguientes ramas: a) f () b) f () no eiste c) f () d) f () + e) f () f) f () + g) f () h) f () no eiste; f () 0 i) f () + f () + j) f () 5 4 f ()
Más detallesEste documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales.
Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Introducción Por qué La Geometría? La Geometría tiene como objetivo fundamental
Más detallesTema 3 VARIABLE ALEATORIA DISCRETA. PRINCIPALES DISTRIBUCIONES
Tema 3 VARIABLE ALEATORIA DISCRETA. PRINCIPALES DISTRIBUCIONES 1.- Definición de variable aleatoria discreta. Normalmente, los resultados posibles (espacio muestral Ω) de un experimento aleatorio no son
Más detallesVariables aleatorias. Función de distribución y características asociadas
Índice 3 Variables aleatorias. Función de distribución y características asociadas 3.1 3.1 Introducción.......................................... 3.1 3.2 Concepto de variable aleatoria................................
Más detallesLos números racionales
Los números racionales Los números racionales Los números fraccionarios o fracciones permiten representar aquellas situaciones en las que se obtiene o se debe una parte de un objeto. Todas las fracciones
Más detallesEl concepto de asociación estadística. Tema 6 Estadística aplicada Por Tevni Grajales G.
El concepto de asociación estadística Tema 6 Estadística aplicada Por Tevni Grajales G. En gran medida la investigación científica asume como una de sus primera tareas, identificar las cosas (características
Más detallesSeries y Probabilidades.
Series y Probabilidades Alejandra Cabaña y Joaquín Ortega 2 IVIC, Departamento de Matemática, y Universidad de Valladolid 2 CIMAT, AC Índice general Sucesiones y Series Numéricas 3 Sucesiones 3 2 Límites
Más detallesTema 1. Inferencia estadística para una población
Tema 1. Inferencia estadística para una población Contenidos Inferencia estadística Estimadores puntuales Estimación de la media y la varianza de una población Estimación de la media de la población mediante
Más detallesTema 7. Límites y continuidad de funciones
Matemáticas II (Bachillerato de Ciencias) Análisis: Límites y continuidad de funciones 55 Límite de una función en un punto Tema 7 Límites y continuidad de funciones Idea inicial Si una función f está
Más detallesAmbas componentes del sistema tienen costos asociados que deben de considerarse.
1. Introducción. En este trabajo se aplica la teoría de colas. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas de espera particulares
Más detallesLA DISTRIBUCIÓN NORMAL, LA CALCULADORA Y LAS NUEVAS TECNOLOGÍAS Abel Martín ( * ) Rosana Álvarez García ( )
LA DISTRIBUCIÓN NORMAL, LA CALCULADORA Y LAS NUEVAS TECNOLOGÍAS Abel Martín ( * ) Rosana Álvarez García ( ) La distribución Normal tiene numerosas aplicaciones en el campo de la Probabilidad y la Estadística,
Más detallesFORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES
FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES Eleonora Catsigeras 6 de mayo de 997 Notas para el curso de Análisis Matemático II Resumen Se enuncia sin demostración
Más detallesFundamentos de Investigación de Operaciones Investigación de Operaciones 1
Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 1 de agosto de 2003 1. Introducción Cualquier modelo de una situación es una simplificación de la situación real. Por lo tanto,
Más detallesProcesos Estacionarios. Francisco J. González Serrano. Universidad Carlos III de Madrid
PREDICCIÓN DE SEÑALES Procesos Estacionarios Francisco J. González Serrano Universidad Carlos III de Madrid Procesos Estacionarios A la hora de hacer predicciones parece obvio suponer que algo debe permanecer
Más detallesUna desigualdad se obtiene al escribir dos expresiones numéricas o algebraicas relacionadas con alguno de los símbolos
MATEMÁTICAS BÁSICAS DESIGUALDADES DESIGUALDADES DE PRIMER GRADO EN UNA VARIABLE La epresión a b significa que "a" no es igual a "b ". Según los valores particulares de a de b, puede tenerse a > b, que
Más detallesAnálisis de una variable real I. Tijani Pakhrou
Análisis de una variable real I Tijani Pakhrou Índice general 1. Introducción axiomática de los números 1 1.1. Números naturales............................ 1 1.1.1. Axiomas de Peano........................
Más detallesTEORÍA TEMA 9. 2. Definición de ESFUERZOS CARACTERÍSTICOS ( Mf.; Q; N)
1. Definición de Viga de alma llena TEORÍA TEMA 9 2. Definición de ESFUERZOS CARACTERÍSTICOS ( Mf.; Q; N) 3. Determinación de los esfuerzos característicos i. Concepto de Polígonos de Presiones ii. Caso
Más detallesCapítulo 9. Regresión lineal simple
Capítulo 9. Regresión lineal simple 9.1 Introducción Uno de los aspectos más relevantes de la Estadística es el análisis de la relación o dependencia entre variables. Frecuentemente resulta de interés
Más detallesIntegrales paramétricas e integrales dobles y triples.
Integrales paramétricas e integrales dobles y triples. Eleonora Catsigeras * 19 de julio de 2006 PRÓLOGO: Notas para el curso de Cálculo II de la Facultad de Ingeniería. Este texto es complementario al
Más detallesDivisibilidad y números primos
Divisibilidad y números primos Divisibilidad En muchos problemas es necesario saber si el reparto de varios elementos en diferentes grupos se puede hacer equitativamente, es decir, si el número de elementos
Más detallesProfr. Efraín Soto Apolinar. Factorización
Factorización La factorización es la otra parte de la historia de los productos notables. Esto es, ambas cosas se refieren a las mismas fórmulas, pero en los productos notables se nos daba una operación
Más detallesDistribuciones de Probabilidad en Arena
Distribuciones de Probabilidad en Arena Arena posee una amplia gama de funciones o distribuciones estadísticas incorporadas para la generación de números aleatorios. Estas distribuciones aparecen cuando,
Más detalles2.5 Linealización de sistemas dinámicos no lineales
25 Linealización de sistemas dinámicos no lineales En las secciones anteriores hemos visto como representar los sistemas lineales En esta sección se estudia una manera de obtener una aproximación lineal
Más detalles1. INVERSA DE UNA MATRIZ REGULAR
. INVERSA DE UNA MATRIZ REGULAR Calcular la inversa de una matriz regular es un trabajo bastante tedioso. A través de ejemplos se expondrán diferentes técnicas para calcular la matriz inversa de una matriz
Más detalles> Cadenas de Markov. Horacio Rojo y Miguel Miranda. @ 71.07 Investigación Operativa
@ 707 Investigación Operativa > Cadenas de Markov Horacio Rojo y Miguel Miranda c 2009 Facultad de Ingeniería, Universidad de Buenos Aires Digitalizado por Virginia Guala $September 2, 2009 Cadenas de
Más detallesEduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS
ANÁLISIS DE DATOS Hoy día vamos a hablar de algunas medidas de resumen de datos: cómo resumir cuando tenemos una serie de datos numéricos, generalmente en variables intervalares. Cuando nosotros tenemos
Más detallesANALISIS MULTIVARIANTE
ANALISIS MULTIVARIANTE Es un conjunto de técnicas que se utilizan cuando se trabaja sobre colecciones de datos en las cuáles hay muchas variables implicadas. Los principales problemas, en este contexto,
Más detalles1-Comportamiento de una función alrededor de un punto:
Matemática II 7 Modulo Límites continuidad En esta sección desarrollaremos el concepto de límite, una de las nociones fundamentales del cálculo. A partir de este concepto se desarrollan también los conceptos
Más detallesTema 3. Espacios vectoriales
Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición
Más detallesAnálisis de componentes principales
Capítulo 2 Análisis de componentes principales 2.1. INTRODUCCIÓN El Análisis de componentes principales trata de describir las características principales de un conjunto de datos multivariantes, en los
Más detallesÍndice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones
Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Leandro Marín Dpto. de Matemática Aplicada Universidad de Murcia 2012 1 Números 2 Polinomios 3 Funciones y su Representación
Más detallesANÁLISIS DE DATOS NO NUMERICOS
ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas
Más detallesEstructuras de Datos y Algoritmos
Estructuras de Datos y Algoritmos Año 205 Deducción de algunos esfuerzos para una Distribución pseudo-aleatoria de datos Introducción Vamos a desarrollar algunos de los esfuerzos para estructuras que utilizan
Más detallesUNIVERSIDAD DE ATACAMA
UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA PROBABILIDAD Y ESTADÍSTICA GUÍA 4: VARIABLES ALEATORIAS CONTINUAS Y DISTRIBUCIONES DE PROBABILIDAD Plan Común de Ingeniería 1.
Más detallesCAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas
CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas Introducción En la economía, la variación de alguna cantidad con respecto a otra puede ser descrita por un concepto promedio o por un concepto
Más detallesDefinición 2.1.1. Se llama suceso aleatorio a cualquier subconjunto del espacio muestral.
Capítulo 2 Probabilidades 2. Definición y propiedades Al realizar un experimento aleatorio nuestro interés es obtener información sobre las leyes que rigen el fenómeno sometido a estudio. El punto de partida
Más detallesIntegrales y ejemplos de aplicación
Integrales y ejemplos de aplicación I. PROPÓSITO DE ESTOS APUNTES Estas notas tienen como finalidad darle al lector una breve introducción a la noción de integral. De ninguna manera se pretende seguir
Más detallesMANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS
1 MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS Medidas de tendencia central Menú Analizar: Los comandos del menú Analizar (Estadística) ejecutan los procesamientos estadísticos. Sus comandos están
Más detallesCapitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario)
Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS (Solucionario) 2 Í N D I C E CAPÍTULO : MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES CAPÍTULO 2: ESPACIOS VECTORIALES
Más detallesSolución del examen de Variable Compleja y Transformadas I. T. I. Electrónica y Electricidad 29 de enero de 2004
Solución del examen de Variable Compleja y Transformadas I. T. I. Electrónica y Electricidad 29 de enero de 2004. Estudia si existe alguna función de variable compleja f() entera cuya parte real sea x
Más detallesUna introducción amable a la teoría de colas
Pablo Serrano Yáñez-Mingot, José Alberto Hernández Gutiérrez Una introducción amable a la teoría de colas Departamento de Ingeniería Telemática - Universidad Carlos III de Madrid Control de versiones 205-09-22
Más detallesa < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)
Desigualdades Dadas dos rectas que se cortan, llamadas ejes (rectangulares si son perpendiculares, y oblicuos en caso contrario), un punto puede situarse conociendo las distancias del mismo a los ejes,
Más detallesGUÍA DE EJERCICIOS UNIDAD II
UNIDAD II: INTEGRAL DEFINIDA UNIVERSIDAD DE CARABOBO FACULTAD DE INGENIERÍA ESTUDIOS BÁSICOS DEPARTAMENTO DE MATEMÁTICA ANÁLISIS MATEMÁTICO II Corregido por: Prof. AOUAD Jamil Prof. LAURENTÍN María Prof.
Más detallesTeóricas de Análisis Matemático (28) - Práctica 4 - Límite de funciones. 1. Límites en el infinito - Asíntotas horizontales
Práctica 4 - Parte Límite de funciones En lo que sigue, veremos cómo la noción de límite introducida para sucesiones se etiende al caso de funciones reales. Esto nos permitirá estudiar el comportamiento
Más detallesAsignatura: Econometría. Conceptos MUY Básicos de Estadística
Asignatura: Econometría Conceptos MUY Básicos de Estadística Ejemplo: encuesta alumnos matriculados en la UMH Estudio: Estamos interesados en conocer el nivel de renta y otras características de los estudiantes
Más detalles1. Producto escalar, métrica y norma asociada
1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la
Más detallesPoblación, Unidad de Análisis, Criterios de Inclusión y Exclusión.
Población Población, Unidad de Análisis, Criterios de Inclusión y Exclusión. Muestra: Identificación y Reclutamiento. Nomenclatura En esta aproximación conceptual consideraremos a Población como sinónimo
Más detalles_ Antología de Física I. Unidad II Vectores. Elaboró: Ing. Víctor H. Alcalá-Octaviano
24 Unidad II Vectores 2.1 Magnitudes escalares y vectoriales Unidad II. VECTORES Para muchas magnitudes físicas basta con indicar su valor para que estén perfectamente definidas y estas son las denominadas
Más detallesDiana del Pilar Cobos del Angel. Experimento: Es una prueba o ensayo. Es el proceso de obtener una observación.
Diana del Pilar Cobos del Angel Términos básicos Experimento: Es una prueba o ensayo. Es el proceso de obtener una observación. Eventos Simples: Cualquier resultado básico de un experimento. Un evento
Más detallesRelación de problemas: Variables aleatorias
Estadística y modelización. Ingeniero Técnico en Diseño Industrial. Relación de problemas: Variables aleatorias 1. Se lanza tres veces una moneda y se observa el número de caras. (a) Calcula la distribución
Más detallesExamen de Estadística Ingeniería de Telecomunicación
Examen de Estadística Ingeniería de Telecomunicación 8 de Mayo de 3 Cuestiones solucion h C. (.5p) El equipo directivo de cierta empresa del sector de hostelería está constituido por 5 personas de las
Más detallesUsamos que f( p) = q y que, por tanto, g( q) = g(f( p)) = h( p) para simplificar esta expresión:
Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Propiedades de las funciones diferenciables. 1. Regla de la cadena Después de la generalización que hemos
Más detallesÁlgebra Vectorial. Principios de Mecánica. Licenciatura de Física. Curso 2007-2008. 1
Álgebra Vectorial Principios de Mecánica. Licenciatura de Física. Curso 2007-2008. 1 Indice. 1. Magnitudes Escalares y Vectoriales. 2. Vectores. 3. Suma de Vectores. Producto de un vector por un escalar.
Más detallesAnexo 4. Herramientas Estadísticas
Anexo 4 Herramientas Estadísticas La estadística descriptiva es utilizada como una herramienta para describir y analizar las características de un conjunto de datos, así como las relaciones que existen
Más detallesÁLGEBRA DE MATRICES. Al consejero A no le gusta ninguno de sus colegas como presidente.
ÁLGEBRA DE MATRICES Página 49 REFLEXIONA Y RESUELVE Elección de presidente Ayudándote de la tabla, estudia detalladamente los resultados de la votación, analiza algunas características de los participantes
Más detalles