1.1. Operaciones básicas: complemento, unión e intersección Variable aleatoria X... 10

Tamaño: px
Comenzar la demostración a partir de la página:

Download "1.1. Operaciones básicas: complemento, unión e intersección... 7 1.2. Variable aleatoria X... 10"

Transcripción

1 Índice general 1. Estadística y Procesos Estocásticos Introducción a la estadística Axiomas de la probabilidad Probabilidad condicional e independencia Ley de la probabilidad total y el teorema de Bayes Las variables aleatorias y sus momentos Introducción a las variables aleatorias Variables aleatorias discretas Variables aleatorias continuas Funciones de variables aleatorias Múltiples variables aleatorias Covarianza y Correlación Combinación lineal de variables aleatorias Mixtura de variables aleatorias Límites y desigualdades Desigualdad de Markov Desigualdad de Chebyshev Límite de Chernoff Ley de los grandes números Introducción a los procesos estocásticos Cadenas de Markov de tiempo discreto: DTMC Introducción a las cadenas de Markov en tiempo continuo 30 1

2 2 ÍNDICE GENERAL

3 Índice de figuras 1.1. Operaciones básicas: complemento, unión e intersección Variable aleatoria X

4 4 ÍNDICE DE FIGURAS

5 Índice de cuadros 1.1. Media y varianza de las v.a

6 6 ÍNDICE DE CUADROS

7 Capítulo 1 Estadística y Procesos Estocásticos 1.1. Introducción a la estadística Axiomas de la probabilidad La caracterización estocástica de un proceso resulta de interés cuando no existe un modelo físico que permita describir lo que está ocurriendo. Definimos: S espacio de estados (conjunto de resultados posibles en un experimento). Sean A y B subconjuntos de S: A S, B S. Las operaciones Complemento(A c ), unión (A B), e intersección (A B) se definen gráficamente como: S S S A A c B A B A complementario union interseccion Figura 1.1: Operaciones básicas: complemento, unión e intersección Dos conjuntos de eventos A y B son disjuntos si A B = 0. Ejemplo 1.1: Transmisión de 1 bit en una línea. S = {0, 1}, donde 0 implica recepción correcta y 1 lo contrario. Debemos atribuir probabilidades al conjunto de resultados posibles que es:, {0}, {1}, S. Para ello, existen determinadas reglas básicas conocidas como axiomas de la probabilidad: 7

8 8 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Axioma 1 : P (S) = 1 Axioma 2 : P (A c ) = 1 P (A) Axioma 3 : Sean A m conjuntos de eventos disjuntos: P ( m A m) = m P (A m) Este último axioma se puede generalizar para el caso de conjuntos de eventos no disjuntos de la siguiente manera: m m P ( A k ) = P (A j A k )+ P (A k A j A l )...+( 1) m 1 P (A 1 A 2... A m ) k=1 k=1 P (A k ) k j k j l De dichos axiomas es posible derivar las siguientes propiedades: 1. A, su probabilidad se encuentra acotada: 0 P (A) 1 2. P (A i A j ) = P (A i ) + P (A j ) P (A i A j ) 3. Si A B P (A) P (B) (1.1) Probabilidad condicional e independencia Definimos la probabilidad condicional de que ocurra el suceso A condicionado a que ocurriera el evento B como: P (A B) = P (A B) P (B) (1.2) Siempre que P (B) 0 se puede demostrar que P (A B) satisface los axiomas de las probabilidades. La probabilidad condicionada permite calcular probabilidades sobre el resultado de un experimento A cuando dispongo de información parcial sobre el mismo. Es útil en experimentos que se pueden descomponer en varias partes. Ejemplo:Suponga que lanza una moneda al aire dos veces. qué probabilidad existe de obtener 2 caras?. A priori (sin información previa) sería P (cc) = 1/4, pero si la primera moneda sale cara sería P (cc c) = 1/2. Dos eventos A y B se dicen independientes 1 (A B) cuando no se encuentran relacionados; esto es, cuando la ocurrencia de B no aporta información sobre la ocurrencia de A. En tal caso: A B P (A B) = P (A) P (B) P (A) = P (A B) (1.3) 1 No confundir eventos mútuamente excluyentes (no pueden ocurrir a la vez, P (A B) = P (A) + P (B)) con eventos independientes (P (A B) = P (A) P (B))

9 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 9 Cuando existen más de dos acontecimientos la independencia se define de la siguiente manera: (A m ) son independientes si k m A 1, A 2,... A k se cumple que: k k P ( A j ) = P (A j ) j=1 j= Ley de la probabilidad total y el teorema de Bayes Sea {B k } una partición del espacio de estados S ( B k = S, y B i B j = para i j). En tal caso la ley de la probabilidad total nos indica que: P (A) = k P (A B k ) = k P (B k ) P (A B k ) (1.4), ya que A = S A = ( B k ) A y como B k A son conjuntos disjuntos es posible aplicar el tercer axioma de las probabilidades para obtener el resultado anterior. El teorema de Bayes es una aplicación directa de la ley de la probabilidad total, puesto que resulta de aplicarlo a la definición de probabilidad condicional. P (B i A) = P (B i A) k P (B k A) = P (B i) P (A B i ) k P (B k) P (A B k ) (1.5) El teorema de Bayes permite obtener la probabilidad del evento de causa, B i, dada la observación del evento de interés, A. Nos permite, por ejemplo, inferir la probabilidad de que un coductor que haya sufrido un accidente estuviera embriagado Las variables aleatorias y sus momentos Introducción a las variables aleatorias En ocasiones, cuando realizamos un experimento sólo estamos interesados en el valor de algunas cantidades determinadas por el resultado, como el valor obtenido por dos dados, o si el número de paquetes por segundo supera cierto umbral. Estas cantidades de interés se conocen como variables aleatorias y vienen determinadas por el resultado de un experimento podemos asignar probabilidades a sus posibles valores. Las variables aleatorias nos permiten trasladar los eventos que resultan de un experimento a números. Las variables aleatorias se representan en mayúsula (ejemplo: X) y los valores que asumen en minúscula (ejemplo: x).

10 10 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS S X R Figura 1.2: Variable aleatoria X Gracias al uso de las variables aleatorias, las probabilidades asociadas a cada punto de S se asocian ahora a un valor de un número real. Ejemplo:Defino X como el número de accesos a un servidor Web en un día. cual será P (X = 50000)? La forma más común de especificar la probabilidad asociada a cada punto es mediante la función de distribución de X, que se define como: F X (u) = P {w S : X(w) u} = P (X u), u R Las funciones de distribución permiten caracterizar R de forma independientes del espacio de estados S. La función de supervivencia, de gran aplicación en el área de la fiabilidad, es la complementaria a la función de distribución: F X (u) = P (X > u), u R Partiendo de los axiomas básicos de la probabilidad es posible demostrar que: F ( ) = 0, F ( ) = 1 y F X (x 1 ) F X (x 2 ) para x 1 x 2. Así mismo se pueden calcular las probabilidades en un intervalo como: P (x 1 X x 2 ) = F X (x 2 ) F X (x 1 ) Variables aleatorias discretas Son aquellas que tienen la cardinalidad de los números naturales. Diremos que X es una variable aleatoria discreta si un conjunto D numerable que verifique: P (X D) = 1. En tal caso, se define la función de probabilidad de X como: p X (i) P (X = i), i D

11 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 11 La relación entre la función de probabilidad de una v.a. discreta y su función de distribución es la siguiente: F X (x) = i=0 P (X = x i) U(x x i ), donde U(x) = 1 si x 0 y 0 en otro caso. Algunas de las variables discretas más utilizadas son: Bernouilli: X Bernouilli(p), 0 p 1. Su función de probabilidad es: p, x = 1; p X (x) = 1 p, x = 0; 0, x 0, 1. (1.6) Se utiliza para modelar el éxito o fracaso de un experimento aleatorio como lanzar una moneda al aire, la transmisión correcta de un bit,... si X = 1 se considera un éxito en el experimento. Binomial: X Binomial(n, p), 0 p 1, n > 0. Su función de probabilidad es: p X (x) = ( n x ) p x (1 p) n x, x = 0, 1, 2,... n (1.7) Si realizamos n experimentos de Bernouilli (X i ) independientes con la misma probabilidad de éxito p, entonces la variable aleatoria X = n i=1 X i, de distribución binomial, nos indicará el número de éxitos obtenidos en las pruebas. Para valores altos de n resulta complicado el cálculo de ( n x) Poisson: X P oisson(λ) λ > 0. Su función de probabilidad es: p X (x) = e λ λx, x = 0, 1,... (1.8) x! Esta variable aleatoria se asocia a resultados de acontecimientos muy poco probables pero con una población muy grande. Se puede considerar el límite de la Binomial cuando n p constante e igual a λ, con n. Debido a su gran aplicación en telecomunicaciones conviene detenernos en posibles caso de uso de esta variables. Supongamos que partimos en n trozos una barra con imperfecciones aleatoriamente distribuidas. Podemos modelar el número de imperfecciones en un trozo mediante una v.a. binomial. Si cada trozo es lo suficientemente pequeño, la probabilidad de que tenga un defecto p es muy pequeña. Si incremento el número de trozos n entonces p se disminuye en la misma proporción, de forma que p n es constante. Para n tendiendo a infinito la v.a. sería Poisson.

12 12 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Este mismo razonamiento se puede aplicar a cualquier intervalo que se divida en trozos (incluyendo un intervalo de tiempo). De forma general podemos afirmar que si un intervalo sobre el cual pueden ocurrir eventos aleatoriamente distribuidos (en el tiempo o en el espacio) puede ser dividido en intervalos suficientemente pequeños, en tal caso, el experimento aleatorio se llama proceso (observación de un sistema en el tiempo) de Poisson. Supongamos que N(t) es una variable que indica el número de eventos aleatorios que ocurren en un intervalo de tiempo [0, t]. Dichos eventos constituyen un proceso de poisson con tasa λ, λ > 0 si a) N(0) = 0 b) El número de eventos que ocurren en un subintervalo es independiente de los que ocurren en otros subintervalos disjuntos. c) La probabilidad de que ocurra un evento en un subintervalo es la misma para todos los subintervalos y proporcional a su longitud, no a su localización. P (N(h)=1) d) lím h 0 h = λ P (N(h) 2) e) lím h 0 h = 0 Para obtener la expresión de P (N(t) = k), dividiremos el intervalo [0, t] en n subintervalos de longitud t n. Entonces, para n tendremos que P (N(t) = k) = P (k de los n subintervalos tienen 1 evento y n-k tienen 0 eventos), donde para cada subintervalo la probabilidad de éxito (tener un evento) será p λ t n. Por tanto P (N(t) = k) Binomial(n, p). Como n y n p = λt = constante N(t) tendrá una distribución de Poisson de tasa λt. Geométrica: X Geometrica(p), 0 p 1. Su función de probabilidad es: p X (x) = (1 p) x 1 p, x = 1, 2,... (1.9) La variable aleatoría Geométrica X representa el número de pruebas de Bernouilli necesarias para obtener el primer éxito; esto es, siendo X i : variables aleatorias de Bernouilli de parámetro p, entonces X = ínf{m 1 : X m = 1}. Hipergeométrica: X Hipergeometrica(N, n, k), k N, n N. Su función de probabilidad es:

13 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 13 p X (x) = ( k n ) ( ) N k n x ( ), x = máx{0, n + k N},... mín{k, n} N n (1.10) Sea un conjunto de N objetos compuestos por k objetos clasificados como éxito y N k como fracaso. Si tomamos una muestra de n objetos aleatoriamente (sin reposición), la variable aleatoria X, con distribución hipergeométrica, medirá el número de éxitos en la muestra elegida. En este caso los experimentos de Bernouilli no son independientes, pues la probabilidad de éxito varía a medida que se realizan extracciones. Cuando la población es muy grande (N n, típicamente n N < 0, 1) se puede utilizar la binomial. Binomial Negativa:X BinNeg(n, p), 0 p 1, n 1. Su función de probabilidad es: p X (x) = ( x 1 n 1 ) p n (1 p) x n, x = n, n + 1, n + 2,... (1.11) La binomial negativa es una generalización de la geométrica en la cual la variable aleatoria representa el número de experimentos de Bernouilli que debo realizar para obtener n éxitos. Siendo Y i variables aleatorias con distribución geométrica, podemos afirmar que X = m i=1 Y i tiene una distribución binomial negativa. Esperanza y momentos de una variable aleatoria discreta En ocasiones se utilizan ciertos valores (media, momentos,...) que permiten ofrecer información sobre la función de distribución de una v.a. La media o valor esperado de una variable aleatoria X es una media ponderada de los posibles valores de X y se define: E[X] = µ = i i p X (i) (1.12) La media representa el centro de gravedad de la función de probabilidad. Supongamos que X 1, X 2, X 3,... X n son variables aleatorias independientes e

14 14 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS idénticamente distribuidas X i números nos indica que: 1 n d = X (i.i.d.). Entonces la ley de los grandes n X k E[X] (1.13) k=1 Si la tendencia es con probabilidad 1 se denomina ley fuerte de los grandes números. Sea Y = f(x), entonces la esperanza de Y será: E[Y ] = E[f(X)] = i f(i) p X (i) (1.14) Es fácil demostrar que: E[aX + b] = ae[x] + b y que E[ i X i] = i E[X i]. Para caracterizar el comportamiento de una distribución se emplean los momentos. Se define el momento de orden k de una variable aleatoria como: E[X k ] = i i k p X (i) (1.15) En muchas ocasiones es necesario conocer si la distribución está concentrada en torno a su media o por el contrario se encuentra dispersa, en tales casos resulta más útil utilizar momentos centrados (en la media) de orden k, que se definen como: E[(X E[X]) k ] = i (i E[X]) k p X (i) (1.16) Junto con la media, uno de los parámetros más utilizados en la caracterización de una v.a. es la varianza, que se define como el momento centrado de orden dos; esto es: V ar(x) = σ 2 = E[(X E[X]) 2 ] = i (i E[X]) 2 p X (i) = E[X 2 ] (E[X]) 2. (1.17) Se puede demostrar que V ar(ax+b) = a 2 V ar(x). A la cantidad V ar(x) = σ se le denomina desviación estándard, y tiene las mismas unidades que la media. También podemos emplear el coeficiente de variación de una variable aleatoria X, definido como C X = σ E[X]. Por último, definimos los cuantiles de probabilidad p como: χ p = ínf{u : F X (u) p} (1.18)

15 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS Variables aleatorias continuas como: En ellas es posible definir la función densidad de probabilidad f X (x) F X (u) = P (X u) = u f X (y)dy, f X (y) 0, y (1.19) Lógicamente, f X(y)dy = 1. En las v.a. continuas, P (X = x) = 0. Todas las expresiones vistas hasta ahora para la esperanza y los momentos continúan siendo válidas cambiando los sumatorios por integrales y la función de probabilidad p X (x) por la función densidad de probabilidad f X (x). Así, por ejemplo tendremos que: E[X] = V ar(x) = u f X (u)du (u E[X]) 2 f X (u)du (1.20) Las principales variables aleatorias continuas son: Uniforme: X U nif orme(a, b). Su función densidad de probabilidad es: f X (x) = { 1 b a, a x b; 0, e.o.c. (1.21) Normal: X Normal(µ, σ 2 ). Su función densidad de probabilidad viene dada por: f X (x) = 1 2π σ e (x µ)2 2σ 2 x (1.22) Esta función tiene forma de campana simétrica respecto al centro, determinado por µ, su media. La anchura vendrá fijada por σ 2, su varianza. Esta distribución es ampliamente utilizada debido al teorema del límite central que nos indica que cuando un experimento aleatorio se repite muchas veces, la variable aleatoria del valor medio tiende a una distribución normal; esto es: {X k } i.i.d. X E[X] = µ V ar[x] = σ 2 < X n = 1 n n i=1 X i n Normal(µ, σ2 n ) (1.23) Dado que las transformaciones lineales de una variable aleatoria normal continúan siendo normales, y siendo X Normal(µ, σ 2 ), si definimos Z = X µ σ, entonces Z Normal(0, 1). La función de distribución de

16 16 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS N(0, 1) se denomina Φ(z) o normal estándar y se encuentra tabulada. Los percentiles de la normal señalan que χ 0,0027 = µ ± 3σ por lo que la mayoría de los valores estarán recogidos en este rango, denominado ancho de la campana. En el caso de la normal estándar, los percentiles son: χ 0,05 = 1,645, χ 0,025 = 1,96, χ 0,01 = 2,33. Un resultado importante de la normal es que la suma de normales X i de media µ i y varianza σi 2 es también una normal de media n i µ i y varianza n i σ2 i. Relacionadas con la normal se encuentran otra serie de distribuciones de interés, como son: Chi Cuadrado: X χ 2 n, n 1, donde n son los grados de libertad. Esta variable representa la suma de n variables aleatorias normales estándard al cuadrado. i.i.d. {Z k } k=1,2,...,n N(0, 1) n Zi 2 χ 2 n (1.24) T-Student: X T n, n 1. Si Z es una variable aleatoria normal estándard, y χ 2 n es una variable independiente Chi cuadrado de n grados de libertad, entonces la variable aleatoria X, definida como: X Z χ 2 n n i=1 i.i.d. T n (1.25) tiene una distribución T-Student con n grados de libertad. Esta distribución es ampliamente utilizada para el cálculo de la media partiendo de resultados empíricos, ya que según hemos visto en el teorema del límite central X n µ σ/ N(0, 1). Si sustituimos σ por su valor n empírico S (el valor empírico de la varianza puede ser calculado como S 2 = 1 n n 1 i=1 (X i X n ) 2 ), entonces n Xn µ S T n 1. La distribución T n tiende a N(0, 1) para n, aunque para valores pequeños de n tiene una mayor variabilidad. La variable aleatoria normal se utiliza también para aproximar otras distribuciones como la binomial o la Poisson bajo ciertas condiciones. Aproximación de la Binomial: Sea X = Binomial(n, p), entonces Z = X np np(1 p) es aproximadamente una variable aleatoria normal estándard. Esta aproximación es buena para np > 5 y n(1 p) > 5 Aproximación de la Poisson: Sea X = P oisson(λ), entonces Z = X λ λ es aproximadamente una variable aleatoria normal estándard. Esta aproximación es válida para λ > 5.

17 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 17 Exponencial:X Exponencial(λ). Su función densidad de probabilidad viene dada por: f X (x) = λ e λ x, 0 x < (1.26) Su función de distribución será, por tanto, F X (x) = 1 e λ x. Es una de las distribuciones más utilizadas en el campo de las telecomunicaciones debido a su propiedad sin memoria, que formalmente se expresa P (X < t 1 + t 2 X > t 1 ) = P (X < t 2 ); esto es, el conocimiento de acontecimientos pasados no afecta al futuro. Esta propiedad sólo se da en la variable exponencial para el caso continuo y la geométrica en el caso discreto. 2. Un ejemplo de aplicación de esta propiedad sería el siguiente: supongamos que X Exp(λ) indica la duración de una conversación telefónica que comienza en t = 0. Si en t = τ comprobamos que la conversación continúa activa, la vida residual(lo que le falta para terminar) de la duración de dicha conversación podría modelarse con una variable aleatoria R = X τ, dado X > τ. Puede demostrarse que R Exp(λ) X: la vida residual no se ve afectada por el instante de tiempo τ en se examine el fenómeno. La variable aleatoria X de distribución exponencial con media 1 λ indica la distancia (en espacio o en tiempo) entre sucesivos eventos de un proceso de Poisson con media λ. Sea N(t) un Proceso de Poisson de tasa λ. Entonces: P (N(t) = k) = e λt (λt)k, k = 0, 1,... (1.27) k! Sea X i una variable aleatoria que indica el tiempo que transcurre hasta la ocurrencia del (i-1)-ésimo evento hasta el i-ésimo evento (tiempo entre eventos). Entonces: P (X 1 > t) = P (N(t) = 0) = e λt (1.28) esto es, X 1 Exp(λ). Para X 2 tenemos que P (X 2 > t X 1 = s) = P (0 eventos en (s, s + t] X 1 = s) = P (0 eventos en (s, s + t]) = e λt. De forma general el tiempo entre llegadas X i Exponencial(λ) Otra propiedad muy utilizada de la variable aleatoria exponencial es que si X 1, X 2,..., X n son variables aleatorias exponenciales de parámetros λ 1, λ 2,..., λ n respectivamente, entonces Y = mín(x 1, X 2,... X n ) tiene distribución exponencial de parámetro n i=1 λ i. Esto significa que la suma de procesos de Poisson, continúa siendo un proceso de Poisson. 2 Es lógico pues en un proceso de Poisson asumimos que un intervalo puede ser dividido en n subintervalos independientes que resultan en pruebas independientes de Bernoilli. Si en una prueba se tiene éxito o fracaso, esto no condiciona las probabilidades de éxito o fracaso de cualquier otra prueba

18 18 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Como consecuencia de lo anterior se puede demostrar que si X 1, X 2,..., X n son variables aleatorias exponenciales i.i.d. de parámetro λ, entonces E[máx(X 1, X 2,..., X n )] = n i=1 1 iλ ln(n) λ. Esto último tiene aplicación en el cálculo del tiempo de vida de un sistema en paralelo. Erlang: X Erlang(λ, r), λ > 0, r = 1, 2,.... Su función densidad de probabilidad es: f X (x) = λr x r 1 e λx, x > 0 (1.29) (r 1)! En este caso X representa el intervalo de tiempo en el que ocurren r eventos en un proceso de Poisson de media λ (o la longitud de un intervalo con r defectos). Si r = 1 entonces X Exp(1/λ). Es el equivalente en tiempo continuo a la binomial negativa. Si X 1,... X n X Exponencial(λ), entonces Y = n i=1 X i tendrá una distribución: Y Erlang(λ, n). Gamma: X Gamma(λ, r), λ > 0, r > 0. Su función densidad de probabilidad será: f X (x) = λr x r 1 e λx, x > 0 (1.30) Γ(r) Donde la función Γ(r) = 0 x r 1 e x dx es una generalización de la función factorial para valores no enteros de r, ya que se puede demostrar que Γ(r) = Γ(r 1) (r 1), con Γ(1) = 0! y Γ(1/2) = π 2, por lo que cuando r es un entero Γ(r) = (r 1)!. Lógicamente Gamma(λ, r) Erlang(λ, r) para r = 0, 1, 2,.... Hiperexponencial-n: X HiperExp(α 1, α 2,..., α n, λ 1, λ 2,..., λ n ), 0 α i 1, λ i 0, n i=1 α i = 1. Su función de distribución es: f X (x) = n α i λ i e λi x, x 0 (1.31) i=1 Esta variable aleatoria permite modelar mixturas de variables exponenciales con diferentes parámetros (λ i ) y distintas probabilidades de ocurrencia para cada una (α i ). En el caso de n = 2 se puede interpretar como realizar un experimento de Bernouilli con probabilidad de éxito α 1 para elegir cual de las dos exponenciales voy a utilizar (si λ 1 ó λ 2 ). La correspondiente función de distribución es: F X (x) = 1 n i=1 α 1e λ i x.

19 1.2. LAS VARIABLES ALEATORIAS Y SUS MOMENTOS 19 Weibull: X W eibull(δ, β), β 0, δ 0. Su función de distribución es: f X (x) = β δ (x δ )β 1 e ( x δ )β, x > 0 (1.32) Esta variable aleatoria es utilizada para modelar el tiempo entre llegadas en un sistema en que la tasa de llegadas se incrementa (o decrementa) con el tiempo. Al δ se le denomina parámetro de escala mientras que a β representa el parámetro de forma. Lógicamente si β = 1 implica que la tasa de llegadas permanece constante y tendremos la distribución exponencial. La función de distribución de la Weibull es F X (x) = 1 e (x/δ) β. Pareto: X P areto(γ, k), γ > 0, k > 0. Su función densidad de probabilidad es: f X (x) = γkγ x γ+1 = γ k (k x )γ+1, k x. (1.33) y su función de distribución es: F X (x) = 1 (k/x) γ, k x. Es una distribución muy utilizada en telecomunicación, debido a que su función densidad de probabilidad decae lentamente (distribución de cola pesada), lo que permite modelar tráfico con una varianza elevada en diferentes escalas de tiempo. Este tipo de tráfico, denominado autosimilar, se emplea para modelar muchos aspectos de las redes de datos como el tráfico en las redes de área local, la duración de las sesiones en Internet,.... En general, una variable aleatoria se denomina de cola pesada si: P (X > (x)) x α, 0 < α 2 es decir, cuando f X (x) αx (α+1). Se puede demostrar que en tal caso, su media no converge para α 1 y la E[X 2 ] tampoco converge para α 2, por lo que ambas serán. En el caso de la distribución Pareto se puede verificar que es de cola pesada si 0 < γ 2, donde su valor medio para γ > 1 es: E[X i ] = γki γ i y su varianza E[(X µ)2 ] para γ > 2 es: σ 2 = γk 2 (γ 1) 2 (γ 2). En el cuadro siguiente se resumen las principales caracterísitcas de las v.a. vistas: Otros parámetros como el coeficiente de variación (C X ) o el momento no centrado de orden 2 (E[X 2 ]) pueden obtenerse mediante manipulación simple de los valores anteriores

20 20 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Distribución E[X] = µ E[ ( X µ) 2 ] = σ 2 Bernouilli(p) p - Binomial(n,p) np np (1 p) Poisson(λ) λ λ (1 p) p 2 1 Geométrica(p) p HiperGeo(N,n,k) np np(1 p)( N n BinNeg(n,p) Uniforme(a,b) n p a+b 2 Normal(µ, σ 2 ) µ σ 2 N 1 ) n(1 p) p 2 (b a) 2 2 χ 2 n n 2n T n 0, n > 1 n n 2, n > 2 Exponencial(λ) 1 1 Erlang(λ, r) Gamma(λ, r) λ r λ r λ n i=1 α i λ i λ 2 r λ 2 r λ 2 HiperExp n (α i, λ i ) 2 n i=1 α i ( n λ 2 i=1 α i λ i i ) 2 Weibull(δ, β) δγ(1 + 1 β ) δ2 Γ(1 + 2 β ) δ2 [Γ(1 + 1 β )]2 Pareto(γ, k) γk γ 1 γk 2 (γ 1) 2 (γ 2), γ > 2 Cuadro 1.1: Media y varianza de las v.a Funciones de variables aleatorias Múltiples variables aleatorias En el caso discreto, podremos definir la función de probabilidad conjunta de p variables aleatorias como: f X1,X 2,...,X p (x 1, x 2,..., x p ) = P (X 1 = x 1, X 2 = x 2,..., X p = x p ) (1.34), donde la función marginal de probabilidad de una de ellas, X i, vendrá dada por la expresión: f Xi (x i ) = P (X i = x i ) = R xi f X1,X 2,...,X p (x 1, x 2,..., x p ) (1.35), siendo R xi el conjunto de puntos del rango de (X 1, X 2,..., X p ) para los cuales X i = x i. La esperanza y la varianza de la variable X i vendrán dadas por: E[X i ] = R x i f X1,X 2,...,X p (x 1, x 2,..., x p ) = µ Xi σ 2 X i = R (x i µ Xi ) 2 f X1,X 2,...,X p (x 1, x 2,..., x p ) (1.36)

21 1.3. FUNCIONES DE VARIABLES ALEATORIAS 21 Donde R es el conjunto de todos los puntos del rango (X 1, X 2,..., X p ). En ocasiones resulta de utilidad hallar la función de probabilidad de un conjunto de k, (k < p) variables aleatorias: f X1,X 2,...,X k (x 1, x 2,..., x k ) = P (X 1 = x 1, X 2 = x 2,..., X k = x k ) = f X1,X 2,...,X p (x 1, x 2,..., x p )(1.37) R x1,x 2,...,x k,siendo R x1,x 2,...,x k el conjunto de todos los puntos de X 1, X 2,... X p para lod cuales X 1 = x 1, X 2 = x 2,..., X k = x k. Podremos afirmar que las variables X 1, X 2,..., X p son independientes si y solo si: f X1,X 2,...,X p (x 1, x 2,..., x p ) = f X1 (x 1 ) f X2 (x 2 )... f Xp (x p ), x 1, x 2,... x p (1.38) Distribución multinomial: Es una extensión de la binomial. Se supone un experimento aleatorio consistente en una serie de n intentos o repeticiones, donde se asume que: El resultado de cada intento es clasificado en una entre k clases La probabilidad de que un intento genere resultado de las clases 1, 2,..., k es constante sobre los intentos e igual a p 1, p 2,..., p k respectivamente, donde k i=1 p i = 1. Los intentos son independientes Las variables aleatorias X 1, X 2,..., X k, que representan el número de intentos que resultan de cada clase, tienen una función de distribución multinomial, con una función de probabilidad conjunta igual a: f X1,X 2,...,X k (x 1, x 2,..., x k ) = n! x 1!, x 2!,..., x k! px 1 1 px px k k, x 1+x x k = n (1.39), donde la función marginal de probabilidad de X i será una binomial con E[X i ] = n p i y σ 2 X i = n p i (1 p i ). En el caso de las variables aleatorias continuas 3, definimos las función densidad de probabilidad conjunta de las variables aleatorias X 1, X 2,... X p como f X1,X 2,...,X p (x 1, x 2,..., x p ) 0 que cumple, para región B del espacio p-dimensional: 3 Un caso de fácil aplicación puede ser las dimensiones de una pieza fabricada

22 22 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS B... f X1,X 2,...,X p (x 1, x 2,..., x p ) = P ([X 1, x 2,..., X p ]ɛb) (1.40), donde... f X 1,X 2,...,X p (x 1, x 2,..., x p ) = 1. La función marginal de probabilidad de una de ellas, X i, vendrá dada por la expresión: f Xi (x i ) = P (X i = x i ) =... R xi f X1,X 2,...,X p (x 1, x 2,..., x p )dx 1 dx 2... dx p (1.41), siendo R xi la región del rango de (X 1, X 2,..., X p ) para los cuales X i = x i. La esperanza y la varianza de la variable X i vendrán dadas por: E[X i ] = σ 2 X i = x i f X1,X 2,...,X p (x 1, x 2,..., x p )dx 1 dx 2... dx p = µ Xi (x i µ Xi ) 2 f X1,X 2,...,X p (x 1, x 2,..., x p )dx 1 dx 2... dx p, donde R es el conjunto de todos los puntos del rango X 1, X 2,..., X p. La función de probabilidad de un conjunto de k, (k < p) variables aleatorias de define de forma similar al caso de variables discretas pasando los sumatorios al caso continuo. La independencia se define igual que en el caso discreto. Distribución Normal bivariada: Es la extensión de la distribución normal para dos variables aleatorias. f XY (x, y; σ X, σ Y, µ X, µ Y, ρ) = 1 2πσ X σ e Y 1 ρ 2 1 2(1 ρ 2 [ (x µ X )2 ) σ X 2 2ρ(x µ X )(y µ Y ) + (y µ Y )2 σ X σ Y σ Y 2 ] (1.42) Covarianza y Correlación Mide la relación entre dos o más variables aleatorias definidas en un espacio probabilístico. Se define la covarianza de dos variables aleatorias de la siguiente manera: Cov(X, Y ) = σ XY = E[(X E[X])(Y E[Y ])] = E[XY ] E[X] E[Y ]. (1.43) La convarianza es una medida de la asociación lineal entre dos variables aleatorias. Si la relación no es lineal, la covarianza puede no ser sensible a esta relación entre variables.

23 1.3. FUNCIONES DE VARIABLES ALEATORIAS 23 Si dos variables aleatorias X e Y son independientes, entonces Cov(X, Y ) = 0 y V ar(x +Y ) = V ar(x)+v ar(y ). En general, puede observarse que cuando la Cov(X, Y ) > 0, entonces Y tiende a incrementar su valor cuando X también lo hace. Un valor Cov(X, Y ) < 0 implica generalmente que Y tiende a decrecer cuando X crece. Para ver la relación entre dos variables X e Y se suele emplear la función de correlación, ya que es una cantidad adimensional que oscila entre +1 y -1 definida como: Corr(X, Y ) = ρ XY = Cov(X, Y ) V ar(x) V ar(y ) (1.44) Si ρ XY > 0, las variables estarán correladas, y si ρ XY = 1, la relación entre ellas será lineal. En caso de variables independientes, ρ XY = σ XY = Combinación lineal de variables aleatorias Dadas las variables aleatorias X 1, X 2,..., X n y las constantes c 1, c 2,..., c n, definimos la siguiente combinación lineal: Y = c 1 X 1 + c 2 X c n X n. Entonces tenemos que: n E[Y ] = E[ c i X i ] = i=1 n c i E[X i ] (1.45) i=1 El cálculo de σy 2 es más complejo. De la definición de convarianza, es fácil verificar que ésta cumple con las siguientes propiedades: Cov(X, X) = V ar(x) Cov(aX, Y ) = a Cov(X, Y ) Cov( n i=1 X i, m j=1 Y i) = n i=1 m j=1 Cov(Y j, X i ) De lo que se desprende como corolario que: ( n ) n n σy 2 = V ar c i X i = c 2 i V ar(x i ) + i=1 i=1 n i=1 j i j =1 c 2 i c 2 jcov(x j, X i ) (1.46) En el caso de que X 1 X 2,..., X n sean independientes se cumplirá que σ 2 Y = n i=1 c iσ 2 X i. El caso de querer encontrar la distribución de la combinación lineal de variables aleatorias tendremos que emplear la convolución. Sean X 1, X 2 dos variables aleatorias discretas, y sea Y = X 1 + X 2. En tal caso, P (Y = y) = y P (X 1 = i)p (X 2 = y i) (1.47) i=0

24 24 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Ejemplo:demuestre que la suma de dos variables independientes de Poisson de media λ 1 t y λ 2 t respectivamente es una variable de Poisson de media (λ 1 + λ 2 )t. (sugerencia: utilice la expansión binomial (x+y) n = n i=0 (n i ) xi y n i ; n 0.) En el caso de variables continuas, tendríamos f Y (y) = Mixtura de variables aleatorias f X1 (z)f X2 (z y)dz (1.48) La mixtura de variables aleatorias resulta más sencilla que la combinación lineal de las mismas. Supongamos que tenemos X 1, X 2,..., X n variables aleatorias independientes, y que la probabilidad de elegir una aleatoriamente es c 1, c 2,... c n para X 1, X 2,..., X n respectivamente, donde n i=1 c i = 1. Entonces podemos definir la mixtura de todas ellas como Y = c 1 X 1 c 2 X 2 c 3 X 3... c n X n (1.49), donde f Y (y) = n i=1 c if Xi (y). Es fácil demostrar que en las mixturas de variables aleatorias, el momento no centrado de orden i cumple: E[Y i ] = n c j E[Xj] i (1.50) j=1 Para el caso de dos variables aleatorias independientes X 1 y X 2 se puede interpretar como un experimento de Bernouilli con probabilidad c 1 de tomar el valor ofrecido por X 1 y 1 c 1 de tomar el valor ofrecido por X Límites y desigualdades Desigualdad de Markov Sea h(x) una función positiva no decreciente 4, y sea X una variable aleatoria con función densidad de probabilidad f X (x). Entonces, E[h(x)] = h(x)f X (x)dx h(x)f X (x)dx h(t)p (X t) (1.51) lo que puede reescribirse como la desigualdad de Markov: 4 Por ejemplo: h(x) = x, o h(x) = e αx

25 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 25 P (X t) E[h(t)] h(t) (1.52) Para el caso de h(x) = xu(x), siendo X una variable aleatoria no negativa y U(x) la función escalón, tendremos la expresión simple P (X t) E[X] t ; t Desigualdad de Chebyshev Se deduce de la desigualdad de Markov y nos permite inferir valores para las probabilidades de una variable aleatoria dado sus momentos. Esta desigualdad estable que: P ( X E[X] ε) σ2 X ε (1.53) Límite de Chernoff Este límite se deriva también de la desigualdad de Markov para h(t) = e αt, α 0, ofreciendo el siguiente resultado: P (X d) e αd E[e αx ] = e αd X( α); α 0 (1.54),donde X( α) es la transformada de Laplace 5 de la función densidad de probabilidad evaluada en α Ley de los grandes números También resulta como aplicación de la desigualdad de Chebychev. Si consideramos n variables aleatorias independientes e idénticamente distribuidas (iid), X 1, X 2,... X n, con media µ y varianza σ 2, la variable aleatoria media X = (1/n) n i=1 X i tendrá media µ y varianza σ 2 /n. Sustituyendo en la desigualdad de Chebychev tendremos que: σ 2 lím P ( X µ ε) lím n n nε 2 ; ε 0 (1.55) 1.5. Introducción a los procesos estocásticos Un proceso estocástico es un modelo probabilístico de un sistema que evoluciona de forma aleatoria. Si el sistema se observa en instantes de tiempos discretos n = 0, 1, 2,... y X n es el estado del sistema en el instante n, entonces {X n, n 0} es un proceso estocástico de tiempo discreto. Ejemplos de este 5 E[X] = R 0 f X (x)e sx dx

26 26 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS caso pueden ser el índice Down-Jones al final de la n-ésima semana, número de paquetes perdidos en un router al final de n-ésimo día,... Si el sistema es observado de manera continua en el tiempo t, entonces {X(t), t 0} es un proceso estocástico de tiempo continuo. Por ejemplo el número de ordenadores averiados en un instante determinado del día t o la posición de un huracán en un momento dado. De manera más formal, podemos definir un proceso estocástico como una colección de variables aleatorias {X(α), α T } indexadas por el parámetro α que toma valores en el conjunto T. Las variables aleatorias toman valores en el espacio de estados S. En una gran cantidad de aplicaciones el parámetro α representa el tiempo. Es posible distinguir dos casos: cuando T = 0, 1, 2,... escribiremos {X n, n 0} en lugar de {X(α), α T } y cuando T = [0, ) utilizaremos la notación {X(t), t 0} en lugar de {X(α), α T }. Cualquier posible evolución o trayectoria del proceso estocástico se denominan caminos muestrales y, en general, existen infinitos. Como los procesos estocásticos siguen uno de los caminos muestrales de forma aleatoria, en ocasiones se les denomina función aleatoria. Uno de los objetivos del estudio de los procesos estocásticos es comprender el comportamiento de los caminos muestrales a fin de predecir y controlar el futuro del sistema. Para caracterizar completamente a un proceso estocástico cuyo conjunto de parámetros T sea finito, bastará con la función de distribución conjunta de todas las variables aleatorias. En el caso de que T = 0, 1, 2,..., sea infinito necesitaremos una familia consistente de funciones de distribución conjunta, que es aquella que cumple que F n (x 0, x 1,..., x n ) = F n+1 (x 0, x 1,..., x n, ). Para el caso continuo, y supuesto que todas las trayectorias son continuas por la derecha, el proceso quedará descrito por una familia consistente de funciones de distribución conjunta de dimensión finita: F t1,t 2,...,t n (x 1, x 2,..., x n ) = P (X(t 1 ) x 1, X(t 2 ) x 2,... X(t n ) x n ) (1.56) El proceso estocástico más simple sería el formado por {X n, n 1} donde X n es una secuencia de variables aleatorias independientes y idénticamente distribuidas (i.i.d.) con una función de distribución común. en tal caso: n F n (x 1, x 2,..., x n ) = F (x i ), < x i < (1.57) i=1 Ejemplo: Supongamos ahora un proceso {X n, n 1} como el anterior, y definimos el proceso estocástico {S n, n 0} de la siguiente manera: S 0 = 0, S n = X 1 + X X n, n 1 (1.58)

27 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 27 Este proceso se conoce como random walk, y también se encuentra completamente caracterizado por la función de distribución conjunta de X. Qué es posible realizar con un proceso estocástico? en primer lugar debemos definirlo; esto es, identificar la estructura básica del proceso, conjunto de distribuciones y parámetros que permiten caracterizarlo. Es posible también estudiar el comportamiento transitorio, es decir, la función de distribución marginal de X n o X(t) para un valor determinado de n o de t, aunque debido a la complejidad de esta tarea 6 en ocasiones tendremos que conformarnos tan sólo con los momentos. En tercer lugar también podremos estudiar el comportamiento límite del proceso cuando n o t tiende a infinito. Para ello debemos en primer lugar analizar la convergencia del proceso: identificar las condiciones bajo las cuales ocurre y desarrollar métodos para computar las distribuciones límites (para ello emplearemos herramientas matemáticas como álgebra matricial, sistemas de ecuaciones diferenciales y métodos numéricos). En cuarto lugar será posible calcular el tiempo de primera estancia; esto es, cuánto tarda el sistema en alcanzar un conjunto particular de estados. Concretamente esto supone estudiar la variable aleatoria T = min{n 0 : X n B} para el tiempo discreto o T = min{t 0 : X(t) B} para el tiempo continuo. Por último, si somos capaces de asociar costes y beneficios de los diversos estados podemos evaluar comparativas de diferentes políticas que influyen en la evolución del proceso Cadenas de Markov de tiempo discreto: DTMC En el caso de tiempo discreto, tendremos una colección de variables aleatorias X 0, X 1, X 2,... con valores discretos 7. Un proceso estocástico X n, n 0 se denomina DTMC con espacio de estados S si: para todo n 0, X n S con probabilidad 1 para todo n 0, x S, A S, B S n, se cumple que P (X n+1 A X n = x, (X 0, X 1,..., X n 1 ) B) = P (X n+1 A X n = x) Esta última propiedad, en virtud de la cual el estado futuro del sistema tan sólo depende del estado presente, y no del pasado, se denomina propiedad de Markov 8 6 Muy pocos procesos, por ejemplo el proceso de Poisson, tienen expresiones simples para las distribuciones en el transitorio 7 Finito o con la cardinalidad de los números naturales 8 Si la dependencia con el tiempo se disipa en más de un paso puedo considerar pares o ternas de valores (X n, X n 1) y utilizar DTMC. Esta técnica debe aplicarse con precaución pues multiplica el número de estados SxS por lo tanto no se puede utilizar para más de 2 o 3

28 28 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS Para el caso de que S sea contable, utilizaremos la siguiente notación: p ij (n) = P (X n+1 = j X n = i) (1.59) A partir de este momento supondremos que S es contable y que la DTMC es homogenea en el tiempo (p ij (n) = p ij n). En general, las DTMC se aplican cuando tenemos series temporales de la forma X n+1 = f(x n, Y n+1 ), donde f es una función, e Y n+1 es un ruido que sólo depende del valor presente y no de la historia del proceso (Y n+1 X0 X 1 X 2... X n 1 ). Ejemplo:suponer un buffer con b posiciones al que llegan paquetes según un proceso. Y n indica el número de paquetes que llegan en el instante n. El buffer procesa un paquete por unidad de tiempo. Sea X n la ocupación del buffer en el instante n. Entonces la dinámica del proceso quedaría descrita por X n+1 = min((x n 1) + + Y n+1, b), y las probabilidades de transición serían: P (Y n+1 = j), P (Y n+1 j), p ij = P (X n+1 = j X n = i) = P (Y n+1 = j i + 1), P (Y n+1 b i + 1 =), i = 0, j < b i = 0, j = b i > 0, j < b i > 0, j = b (1.60) La matriz P = [p ij ] con las probabilidades condicionales para el salto de estado se denomina matriz de transición de probabilidades a un paso es una matriz estocástica pues satisface que p ij 0 i, j S, así como j S p ij = 1 i S. En general, una DTMC X = {X n, n 0} con espacio de estados S queda completamente caracterizada por la matriz de probabilidades de transición P y el vector a = (a i ) i S con la distribución inicial (a i = P (X 0 = i)). Normalmente a sólo influirá en el cálculo de las distribuciones marginales. En tal caso, definimos: a (n) j = P (X n = j) = i S P (X n = j X 0 = i)a i (1.61) Para el cálculo de P (X n = j X 0 = i) = p (n) ij propiedad Markoviana, por lo que: tendremos en cuenta la pasos. En el caso de dependencias temporales mayores es posible emplear series autoregresivas para determinar previsiones de medias y varianzas en el futuro

29 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 29 P (X n+m = k X 0 = i) = j S P (X n = j X 0 = i)p (X n+m = k X n = j) = j S P (X n = j X 0 = i)p (X m = k X 0 = j) (1.62) Lo que da lugar a la ecuación de Chapman-Kolmogorov: p (n+m) ik = j S p(n) ij p(m) jk, que también se expresa de forma matricial como: P (n+m) = P (n) P (m), donde P (n) = P n. Ejemplo:determine P (X 1 = 1, X 3 = 2, X 7 = 3). Solución: P (X 1 = 1) p (2) 12 p (4) 23 Para el cálculo de probabilidades a largo plazo en un DTMC, definimos frecuencia de ocupación de estados a largo plazo como: p i = lím n > frecuencia esperada a largo plazo 1 n + 1 n 1 {Xk =i} (1.63) k=0 lím n > 1 n + 1 n P (X k = i) (1.64) k=0 probabilidad estacionaria de ocupación del estado i: si existe una distribución de probabilidad (π i ) i S, que cumple con π i = j S π jp ji (en forma vectoría sería π = π P ), donde P es la matriz de transición a un paso, entonces π = (π i ) i S es un vector con las distribuciones en régimen estacionario (estado de equilibrio). Caso de existir, para el cálculo de las probabilidades en estado estable π i tendríamos que resolver el siguiente sistema de ecuaciones: π i = π j p ji (1.65) j S π j = 1 (1.66) j S No siempre existe la probabilidad estacionaria: supongamos que la cadena oscila entre dos estados alternativamente o que la cadena queda atrapada en un subconjunto de estados y tenemos que descomponer la solución para cada región. Por ello debemos, en primer lugar, determinar bajo qué condiciones es

30 30 CAPÍTULO 1. ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS posible encontrar la probabilidad estacionaria. Para ello definimos el concepto de accesibilidad: diremos que el estado j es accesible desde el estado i si: i j n : p (n) ij > 0. Dos estados son comunicantes si son accesibles en ambos sentidos. Cuando tenemos un conjunto de estados que son comunicantes entre si, podemos denominarlo clase comunicante. Definimos una clase comunicante A i como cerrada siempre que si i A i y j / A i implica que j no es accesible desde i. Una vez que una cadena visita una clase cerrada comunicante ya no puede salir de ella. Una DTMC se denomina irreductible si todos sus estados pertenecen a una sóla clase cerrada comunicante, y en ella todos los estados se pueden comunicar con el resto de estados. Podemos pues descomponer el espacio de estados S = T A 1 A 2..., donde el subconjunto T contiene todos los estados transitorios (un estado i : P (X n = i para algunn 1 X 0 = i) < 1), esto es, un estado que es posible que no vuelva a ser visitado). Y los subconjuntos A i contienen clases comunicantes con estados recurrentes (lo opuesto de transitorio), que a su vez pueden ser recurrentes nulos (si E[ínf n 1:Xn =i X 0 = i] =, el retorno al estado sucede con probabilidad 1 pero en tiempo ) y en recurrente positivo (si E[ínf n 1:Xn=i X 0 = i] <, el retorno al estado sucede con probabilidad 1 pero en tiempo finito). Si una DTMC es irreductible y recurrente positiva 9, con número finito de estados, podemos afirmar que sólo existe un solución para π i que coincide con la frecuencia de ocupación de estados. p i = π i =, luego lím n > P (X n = i) = π i. lím n > 1 n + 1 n P (X k = i) (1.67) k= Introducción a las cadenas de Markov en tiempo continuo En ellas las probabilidades de transición se sustituyen por tasas de transición. Definimos r ij como la tasa de transición del estado i para el estado j. Es posible imaginar conceptualmente las cadenas en tiempo continuo como una competición entre transiciones, la primera que expira provoca un cambio de estado tras el cual se comienza de nuevo. Si definimos r i = j S,j i r ij como la tasa de salida del estado i, entonces p ij = r ij r i sería la probabilidad de transición del estado j cuando partimos del estado i 10. En el caso de cadenas de tiempo continuo aparece el concepto de matriz 9 para comprobarlo basta con hacer un test a un sólo estado 10 el tiempo de permanencia en los estados se supone exponencial

31 1.5. INTRODUCCIÓN A LOS PROCESOS ESTOCÁSTICOS 31 generadora inifinitesimal ϕ = (q ij ), donde: { r ij, q ij = r i, i j i = j (1.68) La matriz de transición en el tiempo P (t) = (p ij (t)) = P (X(t) = j X(0) = i) de una cadena de Markov de tiempo contínuo que cumple: por lo que la solución viene dada por d P (t) = ϕp (t) (1.69) dt P (t) = e ϕ t = k=0 ϕ k t k k! (1.70) Para el cómputo de estas probabilidades tendremos, normalmente, problemas numéricos, por lo que una solución muy utilizada es la uniformización del proceso que consiste en discretizar las observaciones por una cadena embebida de Markov de tiempo discreto. Este método permite tratar el caso continuo como si fuera un caso discreto, donde el proceso de Poisson uniformizador debe tener una tasa q máx j S r j, lo que nos lleva a matrices de transición del proceso uniformizado ˆP = I + ϕ q. Los procesos en tiempo continuo que utilizaremos a lo largo del presente año serán los de nacimiento y muerte, desarrollados en el próximo tema.

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

T.1 CONVERGENCIA Y TEOREMAS LÍMITE T.1 CONVERGENCIA Y TEOREMAS LÍMITE 1. CONVERGENCIA DE SUCESIONES DE VARIABLES ALEATORIA CONVERGENCIA CASI-SEGURA CONVERGENCIA EN PROBABILIDAD CONVERGENCIA EN MEDIA CUADRÁTICA CONVERGENCIA EN LEY ( O DISTRIBUCIÓN)

Más detalles

Teoría de Colas o Fenómenos de Espera

Teoría de Colas o Fenómenos de Espera Teoría de Colas o Fenómenos de Espera Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Introducción 2 Introducción............................................................

Más detalles

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos

Más detalles

Métodos generales de generación de variables aleatorias

Métodos generales de generación de variables aleatorias Tema Métodos generales de generación de variables aleatorias.1. Generación de variables discretas A lo largo de esta sección, consideraremos una variable aleatoria X cuya función puntual es probabilidad

Más detalles

Cadenas de Markov. http://humberto-r-alvarez-a.webs.com

Cadenas de Markov. http://humberto-r-alvarez-a.webs.com Cadenas de Markov http://humberto-r-alvarez-a.webs.com Definición Procesos estocásticos: procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados. Estos

Más detalles

Tema 3: Aplicaciones de la diagonalización

Tema 3: Aplicaciones de la diagonalización TEORÍA DE ÁLGEBRA II: Tema 3. DIPLOMATURA DE ESTADÍSTICA 1 Tema 3: Aplicaciones de la diagonalización 1 Ecuaciones en diferencias Estudiando la cría de conejos, Fibonacci llegó a las siguientes conclusiones:

Más detalles

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define. VECTORES El estudio de los vectores es uno de tantos conocimientos de las matemáticas que provienen de la física. En esta ciencia se distingue entre magnitudes escalares y magnitudes vectoriales. Se llaman

Más detalles

Tema 5. Variables aleatorias discretas

Tema 5. Variables aleatorias discretas Tema 5. Variables aleatorias discretas Resumen del tema 5.1. Definición de variable aleatoria discreta 5.1.1. Variables aleatorias Una variable aleatoria es una función que asigna un número a cada suceso

Más detalles

ESTIMACIÓN. puntual y por intervalo

ESTIMACIÓN. puntual y por intervalo ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio

Más detalles

Distribuciones Multivariantes. Distribuciones Multivariantes. Distribuciones Multivariantes. Objetivos del tema:

Distribuciones Multivariantes. Distribuciones Multivariantes. Distribuciones Multivariantes. Objetivos del tema: Distribuciones Multivariantes Distribuciones Multivariantes Distribución conjunta de un vector aleatorio Objetivos del tema: Distribuciones marginales y condicionadas Al final del tema el alumno será capaz

Más detalles

1 Introducción... 2. 2 Distribución exponencial... 2. 3 Distribución Weibull... 6. 4 Distribuciones Gamma y k-erlang... 10

1 Introducción... 2. 2 Distribución exponencial... 2. 3 Distribución Weibull... 6. 4 Distribuciones Gamma y k-erlang... 10 Asignatura: Ingeniería Industrial Índice de Contenidos 1 Introducción... 2 2 Distribución exponencial... 2 3 Distribución Weibull... 6 4 Distribuciones Gamma y k-erlang... 10 5 Distribución log-normal...

Más detalles

Tema 2 Límites de Funciones

Tema 2 Límites de Funciones Tema 2 Límites de Funciones 2.1.- Definición de Límite Idea de límite de una función en un punto: Sea la función. Si x tiende a 2, a qué valor se aproxima? Construyendo - + una tabla de valores próximos

Más detalles

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice 1 Polinomios Dedicaremos este apartado al repaso de los polinomios. Se define R[x] ={a 0 + a 1 x + a 2 x 2 +... +

Más detalles

Covarianza y coeficiente de correlación

Covarianza y coeficiente de correlación Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también

Más detalles

Vectores aleatorios. Estadística I curso 2008 2009

Vectores aleatorios. Estadística I curso 2008 2009 Vectores aleatorios Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 En numerosas ocasiones estudiamos más de una variable asociada a

Más detalles

9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES

9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES 9. INTRODUCCIÓN A DISTRIBU- CIONES MULTIVARIANTES Objetivo Introducir la idea de la distribución conjunta de dos variables discretas. Generalizar las ideas del tema 2. Introducir la distribución normal

Más detalles

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES CAPÍTULO 7 Curso preparatorio de la prueba de acceso a la universidad para mayores de 25 años curso 2010/11 Nuria Torrado Robles Departamento de Estadística Universidad

Más detalles

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES Tema 07 LÍMITES Y CONTINUIDAD DE FUNCIONES Límite de una función en un punto Vamos a estudiar el comportamiento de las funciones f ( ) g ( ) ENT[ ] h ( ) i ( ) en el punto Para ello, damos a valores próimos

Más detalles

35 Facultad de Ciencias Universidad de Los Andes Mérida-Venezuela. Potencial Eléctrico

35 Facultad de Ciencias Universidad de Los Andes Mérida-Venezuela. Potencial Eléctrico q 1 q 2 Prof. Félix Aguirre 35 Energía Electrostática Potencial Eléctrico La interacción electrostática es representada muy bien a través de la ley de Coulomb, esto es: mediante fuerzas. Existen, sin embargo,

Más detalles

Tema 3. Variables aleatorias. Inferencia estadística

Tema 3. Variables aleatorias. Inferencia estadística Estadística y metodología de la investigación Curso 2012-2013 Pedro Faraldo, Beatriz Pateiro Tema 3. Variables aleatorias. Inferencia estadística 1. Introducción 1 2. Variables aleatorias 1 2.1. Variable

Más detalles

Una invitación al estudio de las cadenas de Markov

Una invitación al estudio de las cadenas de Markov Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Introducción

Más detalles

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Universidad de Cádiz Departamento de Matemáticas MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Tema 4 La recta en el plano Elaborado por la Profesora Doctora María Teresa

Más detalles

1. a) Definimos X =número de personas con síntomas si examino sólo una persona, la cual sigue una distribución B(1, p), donde

1. a) Definimos X =número de personas con síntomas si examino sólo una persona, la cual sigue una distribución B(1, p), donde Soluciones de la relación del Tema 6. 1. a) Definimos X =número de personas con síntomas si examino sólo una persona, la cual sigue una distribución B1, p), donde p = P X = 1) = P la persona presente síntomas)

Más detalles

Tema 5: Vectores aleatorios bidimensionales.

Tema 5: Vectores aleatorios bidimensionales. Estadística 52 Tema 5: Vectores aleatorios bidimensionales. Hasta ahora hemos estudiado las variables aleatorias unidimensionales, es decir, los valores de una característica aleatoria. En muchos casos,

Más detalles

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Francisco José González Gutiérrez Cádiz, Octubre de 2004 Universidad de Cádiz Departamento de Matemáticas ii Lección 1 Conjuntos y Subconjuntos

Más detalles

ENERGÍA DE DEFORMACIÓN DE UNA ESTRUCTURA

ENERGÍA DE DEFORMACIÓN DE UNA ESTRUCTURA ENERGÍA DE DEFORMACIÓN DE UNA ESTRUCTURA 1. Hipótesis empleadas Las hipótesis que supondremos en este capítulo son: Material elástico lineal. Estructura estable La estructura es cargada lentamente. La

Más detalles

2.2 Transformada de Laplace y Transformada. 2.2.1 Definiciones. 2.2.1.1 Transformada de Laplace

2.2 Transformada de Laplace y Transformada. 2.2.1 Definiciones. 2.2.1.1 Transformada de Laplace 2.2 Transformada de Laplace y Transformada 2.2.1 Definiciones 2.2.1.1 Transformada de Laplace Dada una función de los reales en los reales, Existe una función denominada Transformada de Laplace que toma

Más detalles

Variables aleatorias continuas

Variables aleatorias continuas Variables aleatorias continuas Hemos definido que una variable aleatoria X es discreta si I X es un conjunto finito o infinito numerable. En la práctica las variables aleatorias discretas sirven como modelos

Más detalles

Selectividad Septiembre 2009 SEPTIEMBRE 2009. Opción A

Selectividad Septiembre 2009 SEPTIEMBRE 2009. Opción A SEPTIEMBRE 2009 Opción A 1.- Como cada año, el inicio del curso académico, una tienda de material escolar prepara una oferta de 600 cuadernos, 500 carpetas y 400 bolígrafos para los alumnos de un IES,

Más detalles

Nivelación de Matemática MTHA UNLP 1. Vectores

Nivelación de Matemática MTHA UNLP 1. Vectores Nivelación de Matemática MTHA UNLP 1 1. Definiciones básicas Vectores 1.1. Magnitudes escalares y vectoriales. Hay magnitudes que quedan determinadas dando un solo número real: su medida. Por ejemplo:

Más detalles

UNIDAD 4 PROCESOS DE MARKOV

UNIDAD 4 PROCESOS DE MARKOV UNIDAD 4 PROCESOS DE MARKOV Anteriormente se han cubierto modelos estáticos, esto es, modelos cuyos parámetros permanecen sin cambio a través del tiempo. Con excepción de programación dinámica donde se

Más detalles

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones Fracciones. Las fracciones y los números Racionales Las fracciones se utilizan cotidianamente en contextos relacionados con la medida, el reparto o como forma de relacionar dos cantidades. Tenemos entonces

Más detalles

2. Probabilidad. Estadística. Curso 2009-2010. Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24

2. Probabilidad. Estadística. Curso 2009-2010. Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24 2. Probabilidad Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24 Contenidos 1 Experimentos aleatorios 2 Algebra de sucesos 3 Espacios

Más detalles

Líneas de espera. Introducción.

Líneas de espera. Introducción. Líneas de espera. Introducción. En este capítulo se aplica la teoría de colas. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas

Más detalles

DISEÑO DEL SOFTWARE TRAFFIC ANALYZER. Analyzer. En este capítulo se reporta el desarrollo que se llevó a cabo para realizar el software

DISEÑO DEL SOFTWARE TRAFFIC ANALYZER. Analyzer. En este capítulo se reporta el desarrollo que se llevó a cabo para realizar el software 3 Diseño del Software Traffic Analyzer En este capítulo se reporta el desarrollo que se llevó a cabo para realizar el software que analiza el tráfico en redes de telefonía y computadoras, denominado Traffic

Más detalles

Curso: Métodos de Monte Carlo Unidad 2, Sesión 6: Integración por Monte Carlo

Curso: Métodos de Monte Carlo Unidad 2, Sesión 6: Integración por Monte Carlo Curso: Métodos de Monte Carlo Unidad 2, Sesión 6: Integración por Monte Carlo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo,

Más detalles

Tema 1: Test de Distribuciones de Probabilidad

Tema 1: Test de Distribuciones de Probabilidad Tema 1: Test de Distribuciones de Probabilidad 1.- Una compañía de seguros tiene 1000 asegurados en el ramo de accidentes. Si la el modelo mejor para el número de siniestros en un año es: a) Normal (5;,3).

Más detalles

PROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS

PROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS PROBLEMAS ADICIONALES RESUELTOS SOBRE VARIABLES ALETORIAS Grupos P y P (Prof. Ledesma) Problemas. Variables aleatorias..- Sea la v.a. X que toma los valores - y con probabilidades, y, respectivamente y

Más detalles

Sistemas de Generación de Energía Eléctrica HIDROLOGÍA BÁSICA. Universidad Tecnológica De Pereira

Sistemas de Generación de Energía Eléctrica HIDROLOGÍA BÁSICA. Universidad Tecnológica De Pereira 2010 Sistemas de Generación de Energía Eléctrica HIDROLOGÍA BÁSICA Universidad Tecnológica De Pereira Conceptos Básicos de Hidrología La hidrología es una ciencia clave en el estudio de los sistemas de

Más detalles

Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación

Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación de Septiempbre, 00 Cuestiones 1h C1. El tiempo que un ordenador tarda en ejecutar una tarea es una v.a. Y Expλ). Para hacer un estudio

Más detalles

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor Tema 5 Aproximación funcional local: Polinomio de Taylor Teoría Los polinomios son las funciones reales más fáciles de evaluar; por esta razón, cuando una función resulta difícil de evaluar con exactitud,

Más detalles

Selectividad Septiembre 2013 OPCIÓN B

Selectividad Septiembre 2013 OPCIÓN B Pruebas de Acceso a las Universidades de Castilla y León ATEÁTICAS APLICADAS A LAS CIENCIAS SOCIALES EJERCICIO Nº páginas Tablas OPTATIVIDAD: EL ALUNO DEBERÁ ESCOGER UNA DE LAS DOS OPCIONES Y DESARROLLAR

Más detalles

Sea T R y (Ω, F, P ) un espacio de probabilidad. Un proceso aleatorio es una función

Sea T R y (Ω, F, P ) un espacio de probabilidad. Un proceso aleatorio es una función Capítulo 2 Cadenas de Markov 21 Introducción Sea T R y (Ω, F, P ) un espacio de probabilidad Un proceso aleatorio es una función X : T Ω R tal que para cada t T, X(t, ) es una variable aleatoria Si fijamos

Más detalles

Límites y Continuidad de funciones

Límites y Continuidad de funciones CAPITULO Límites y Continuidad de funciones Licda. Elsie Hernández Saborío Instituto Tecnológico de Costa Rica Escuela de Matemática Revista digital Matemática, educación e internet (www.cidse.itcr.ac.cr)

Más detalles

EL MÉTODO DE LA BISECCIÓN

EL MÉTODO DE LA BISECCIÓN EL MÉTODO DE LA BISECCIÓN Teorema de Bolzano Sea f : [a, b] IR IR una función continua en [a, b] tal que f(a) f(b) < 0, es decir, que tiene distinto signo en a y en b. Entonces, existe c (a, b) tal que

Más detalles

LÍMITES Y CONTINUIDAD

LÍMITES Y CONTINUIDAD UNIDAD 5 LÍMITES Y CONTINUIDAD Páginas 0 y Describe las siguientes ramas: a) f () b) f () no eiste c) f () d) f () + e) f () f) f () + g) f () h) f () no eiste; f () 0 i) f () + f () + j) f () 5 4 f ()

Más detalles

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales.

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Introducción Por qué La Geometría? La Geometría tiene como objetivo fundamental

Más detalles

Tema 3 VARIABLE ALEATORIA DISCRETA. PRINCIPALES DISTRIBUCIONES

Tema 3 VARIABLE ALEATORIA DISCRETA. PRINCIPALES DISTRIBUCIONES Tema 3 VARIABLE ALEATORIA DISCRETA. PRINCIPALES DISTRIBUCIONES 1.- Definición de variable aleatoria discreta. Normalmente, los resultados posibles (espacio muestral Ω) de un experimento aleatorio no son

Más detalles

Variables aleatorias. Función de distribución y características asociadas

Variables aleatorias. Función de distribución y características asociadas Índice 3 Variables aleatorias. Función de distribución y características asociadas 3.1 3.1 Introducción.......................................... 3.1 3.2 Concepto de variable aleatoria................................

Más detalles

Los números racionales

Los números racionales Los números racionales Los números racionales Los números fraccionarios o fracciones permiten representar aquellas situaciones en las que se obtiene o se debe una parte de un objeto. Todas las fracciones

Más detalles

El concepto de asociación estadística. Tema 6 Estadística aplicada Por Tevni Grajales G.

El concepto de asociación estadística. Tema 6 Estadística aplicada Por Tevni Grajales G. El concepto de asociación estadística Tema 6 Estadística aplicada Por Tevni Grajales G. En gran medida la investigación científica asume como una de sus primera tareas, identificar las cosas (características

Más detalles

Series y Probabilidades.

Series y Probabilidades. Series y Probabilidades Alejandra Cabaña y Joaquín Ortega 2 IVIC, Departamento de Matemática, y Universidad de Valladolid 2 CIMAT, AC Índice general Sucesiones y Series Numéricas 3 Sucesiones 3 2 Límites

Más detalles

Tema 1. Inferencia estadística para una población

Tema 1. Inferencia estadística para una población Tema 1. Inferencia estadística para una población Contenidos Inferencia estadística Estimadores puntuales Estimación de la media y la varianza de una población Estimación de la media de la población mediante

Más detalles

Tema 7. Límites y continuidad de funciones

Tema 7. Límites y continuidad de funciones Matemáticas II (Bachillerato de Ciencias) Análisis: Límites y continuidad de funciones 55 Límite de una función en un punto Tema 7 Límites y continuidad de funciones Idea inicial Si una función f está

Más detalles

Ambas componentes del sistema tienen costos asociados que deben de considerarse.

Ambas componentes del sistema tienen costos asociados que deben de considerarse. 1. Introducción. En este trabajo se aplica la teoría de colas. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas de espera particulares

Más detalles

LA DISTRIBUCIÓN NORMAL, LA CALCULADORA Y LAS NUEVAS TECNOLOGÍAS Abel Martín ( * ) Rosana Álvarez García ( )

LA DISTRIBUCIÓN NORMAL, LA CALCULADORA Y LAS NUEVAS TECNOLOGÍAS Abel Martín ( * ) Rosana Álvarez García ( ) LA DISTRIBUCIÓN NORMAL, LA CALCULADORA Y LAS NUEVAS TECNOLOGÍAS Abel Martín ( * ) Rosana Álvarez García ( ) La distribución Normal tiene numerosas aplicaciones en el campo de la Probabilidad y la Estadística,

Más detalles

FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES

FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES FORMA CANONICA DE JORDAN Y ECUACIONES DIFERENCIALES LINEALES A COEFICIENTES CONSTANTES Eleonora Catsigeras 6 de mayo de 997 Notas para el curso de Análisis Matemático II Resumen Se enuncia sin demostración

Más detalles

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 1 de agosto de 2003 1. Introducción Cualquier modelo de una situación es una simplificación de la situación real. Por lo tanto,

Más detalles

Procesos Estacionarios. Francisco J. González Serrano. Universidad Carlos III de Madrid

Procesos Estacionarios. Francisco J. González Serrano. Universidad Carlos III de Madrid PREDICCIÓN DE SEÑALES Procesos Estacionarios Francisco J. González Serrano Universidad Carlos III de Madrid Procesos Estacionarios A la hora de hacer predicciones parece obvio suponer que algo debe permanecer

Más detalles

Una desigualdad se obtiene al escribir dos expresiones numéricas o algebraicas relacionadas con alguno de los símbolos

Una desigualdad se obtiene al escribir dos expresiones numéricas o algebraicas relacionadas con alguno de los símbolos MATEMÁTICAS BÁSICAS DESIGUALDADES DESIGUALDADES DE PRIMER GRADO EN UNA VARIABLE La epresión a b significa que "a" no es igual a "b ". Según los valores particulares de a de b, puede tenerse a > b, que

Más detalles

Análisis de una variable real I. Tijani Pakhrou

Análisis de una variable real I. Tijani Pakhrou Análisis de una variable real I Tijani Pakhrou Índice general 1. Introducción axiomática de los números 1 1.1. Números naturales............................ 1 1.1.1. Axiomas de Peano........................

Más detalles

TEORÍA TEMA 9. 2. Definición de ESFUERZOS CARACTERÍSTICOS ( Mf.; Q; N)

TEORÍA TEMA 9. 2. Definición de ESFUERZOS CARACTERÍSTICOS ( Mf.; Q; N) 1. Definición de Viga de alma llena TEORÍA TEMA 9 2. Definición de ESFUERZOS CARACTERÍSTICOS ( Mf.; Q; N) 3. Determinación de los esfuerzos característicos i. Concepto de Polígonos de Presiones ii. Caso

Más detalles

Capítulo 9. Regresión lineal simple

Capítulo 9. Regresión lineal simple Capítulo 9. Regresión lineal simple 9.1 Introducción Uno de los aspectos más relevantes de la Estadística es el análisis de la relación o dependencia entre variables. Frecuentemente resulta de interés

Más detalles

Integrales paramétricas e integrales dobles y triples.

Integrales paramétricas e integrales dobles y triples. Integrales paramétricas e integrales dobles y triples. Eleonora Catsigeras * 19 de julio de 2006 PRÓLOGO: Notas para el curso de Cálculo II de la Facultad de Ingeniería. Este texto es complementario al

Más detalles

Divisibilidad y números primos

Divisibilidad y números primos Divisibilidad y números primos Divisibilidad En muchos problemas es necesario saber si el reparto de varios elementos en diferentes grupos se puede hacer equitativamente, es decir, si el número de elementos

Más detalles

Profr. Efraín Soto Apolinar. Factorización

Profr. Efraín Soto Apolinar. Factorización Factorización La factorización es la otra parte de la historia de los productos notables. Esto es, ambas cosas se refieren a las mismas fórmulas, pero en los productos notables se nos daba una operación

Más detalles

Distribuciones de Probabilidad en Arena

Distribuciones de Probabilidad en Arena Distribuciones de Probabilidad en Arena Arena posee una amplia gama de funciones o distribuciones estadísticas incorporadas para la generación de números aleatorios. Estas distribuciones aparecen cuando,

Más detalles

2.5 Linealización de sistemas dinámicos no lineales

2.5 Linealización de sistemas dinámicos no lineales 25 Linealización de sistemas dinámicos no lineales En las secciones anteriores hemos visto como representar los sistemas lineales En esta sección se estudia una manera de obtener una aproximación lineal

Más detalles

1. INVERSA DE UNA MATRIZ REGULAR

1. INVERSA DE UNA MATRIZ REGULAR . INVERSA DE UNA MATRIZ REGULAR Calcular la inversa de una matriz regular es un trabajo bastante tedioso. A través de ejemplos se expondrán diferentes técnicas para calcular la matriz inversa de una matriz

Más detalles

> Cadenas de Markov. Horacio Rojo y Miguel Miranda. @ 71.07 Investigación Operativa

> Cadenas de Markov. Horacio Rojo y Miguel Miranda. @ 71.07 Investigación Operativa @ 707 Investigación Operativa > Cadenas de Markov Horacio Rojo y Miguel Miranda c 2009 Facultad de Ingeniería, Universidad de Buenos Aires Digitalizado por Virginia Guala $September 2, 2009 Cadenas de

Más detalles

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS ANÁLISIS DE DATOS Hoy día vamos a hablar de algunas medidas de resumen de datos: cómo resumir cuando tenemos una serie de datos numéricos, generalmente en variables intervalares. Cuando nosotros tenemos

Más detalles

ANALISIS MULTIVARIANTE

ANALISIS MULTIVARIANTE ANALISIS MULTIVARIANTE Es un conjunto de técnicas que se utilizan cuando se trabaja sobre colecciones de datos en las cuáles hay muchas variables implicadas. Los principales problemas, en este contexto,

Más detalles

1-Comportamiento de una función alrededor de un punto:

1-Comportamiento de una función alrededor de un punto: Matemática II 7 Modulo Límites continuidad En esta sección desarrollaremos el concepto de límite, una de las nociones fundamentales del cálculo. A partir de este concepto se desarrollan también los conceptos

Más detalles

Tema 3. Espacios vectoriales

Tema 3. Espacios vectoriales Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición

Más detalles

Análisis de componentes principales

Análisis de componentes principales Capítulo 2 Análisis de componentes principales 2.1. INTRODUCCIÓN El Análisis de componentes principales trata de describir las características principales de un conjunto de datos multivariantes, en los

Más detalles

Índice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones

Índice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Leandro Marín Dpto. de Matemática Aplicada Universidad de Murcia 2012 1 Números 2 Polinomios 3 Funciones y su Representación

Más detalles

ANÁLISIS DE DATOS NO NUMERICOS

ANÁLISIS DE DATOS NO NUMERICOS ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas

Más detalles

Estructuras de Datos y Algoritmos

Estructuras de Datos y Algoritmos Estructuras de Datos y Algoritmos Año 205 Deducción de algunos esfuerzos para una Distribución pseudo-aleatoria de datos Introducción Vamos a desarrollar algunos de los esfuerzos para estructuras que utilizan

Más detalles

UNIVERSIDAD DE ATACAMA

UNIVERSIDAD DE ATACAMA UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA PROBABILIDAD Y ESTADÍSTICA GUÍA 4: VARIABLES ALEATORIAS CONTINUAS Y DISTRIBUCIONES DE PROBABILIDAD Plan Común de Ingeniería 1.

Más detalles

CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas

CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas Introducción En la economía, la variación de alguna cantidad con respecto a otra puede ser descrita por un concepto promedio o por un concepto

Más detalles

Definición 2.1.1. Se llama suceso aleatorio a cualquier subconjunto del espacio muestral.

Definición 2.1.1. Se llama suceso aleatorio a cualquier subconjunto del espacio muestral. Capítulo 2 Probabilidades 2. Definición y propiedades Al realizar un experimento aleatorio nuestro interés es obtener información sobre las leyes que rigen el fenómeno sometido a estudio. El punto de partida

Más detalles

Integrales y ejemplos de aplicación

Integrales y ejemplos de aplicación Integrales y ejemplos de aplicación I. PROPÓSITO DE ESTOS APUNTES Estas notas tienen como finalidad darle al lector una breve introducción a la noción de integral. De ninguna manera se pretende seguir

Más detalles

MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS

MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS 1 MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS Medidas de tendencia central Menú Analizar: Los comandos del menú Analizar (Estadística) ejecutan los procesamientos estadísticos. Sus comandos están

Más detalles

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario)

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario) Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS (Solucionario) 2 Í N D I C E CAPÍTULO : MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES CAPÍTULO 2: ESPACIOS VECTORIALES

Más detalles

Solución del examen de Variable Compleja y Transformadas I. T. I. Electrónica y Electricidad 29 de enero de 2004

Solución del examen de Variable Compleja y Transformadas I. T. I. Electrónica y Electricidad 29 de enero de 2004 Solución del examen de Variable Compleja y Transformadas I. T. I. Electrónica y Electricidad 29 de enero de 2004. Estudia si existe alguna función de variable compleja f() entera cuya parte real sea x

Más detalles

Una introducción amable a la teoría de colas

Una introducción amable a la teoría de colas Pablo Serrano Yáñez-Mingot, José Alberto Hernández Gutiérrez Una introducción amable a la teoría de colas Departamento de Ingeniería Telemática - Universidad Carlos III de Madrid Control de versiones 205-09-22

Más detalles

a < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)

a < b y se lee a es menor que b (desigualdad estricta) a > b y se lee a es mayor que b (desigualdad estricta) Desigualdades Dadas dos rectas que se cortan, llamadas ejes (rectangulares si son perpendiculares, y oblicuos en caso contrario), un punto puede situarse conociendo las distancias del mismo a los ejes,

Más detalles

GUÍA DE EJERCICIOS UNIDAD II

GUÍA DE EJERCICIOS UNIDAD II UNIDAD II: INTEGRAL DEFINIDA UNIVERSIDAD DE CARABOBO FACULTAD DE INGENIERÍA ESTUDIOS BÁSICOS DEPARTAMENTO DE MATEMÁTICA ANÁLISIS MATEMÁTICO II Corregido por: Prof. AOUAD Jamil Prof. LAURENTÍN María Prof.

Más detalles

Teóricas de Análisis Matemático (28) - Práctica 4 - Límite de funciones. 1. Límites en el infinito - Asíntotas horizontales

Teóricas de Análisis Matemático (28) - Práctica 4 - Límite de funciones. 1. Límites en el infinito - Asíntotas horizontales Práctica 4 - Parte Límite de funciones En lo que sigue, veremos cómo la noción de límite introducida para sucesiones se etiende al caso de funciones reales. Esto nos permitirá estudiar el comportamiento

Más detalles

Asignatura: Econometría. Conceptos MUY Básicos de Estadística

Asignatura: Econometría. Conceptos MUY Básicos de Estadística Asignatura: Econometría Conceptos MUY Básicos de Estadística Ejemplo: encuesta alumnos matriculados en la UMH Estudio: Estamos interesados en conocer el nivel de renta y otras características de los estudiantes

Más detalles

1. Producto escalar, métrica y norma asociada

1. Producto escalar, métrica y norma asociada 1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la

Más detalles

Población, Unidad de Análisis, Criterios de Inclusión y Exclusión.

Población, Unidad de Análisis, Criterios de Inclusión y Exclusión. Población Población, Unidad de Análisis, Criterios de Inclusión y Exclusión. Muestra: Identificación y Reclutamiento. Nomenclatura En esta aproximación conceptual consideraremos a Población como sinónimo

Más detalles

_ Antología de Física I. Unidad II Vectores. Elaboró: Ing. Víctor H. Alcalá-Octaviano

_ Antología de Física I. Unidad II Vectores. Elaboró: Ing. Víctor H. Alcalá-Octaviano 24 Unidad II Vectores 2.1 Magnitudes escalares y vectoriales Unidad II. VECTORES Para muchas magnitudes físicas basta con indicar su valor para que estén perfectamente definidas y estas son las denominadas

Más detalles

Diana del Pilar Cobos del Angel. Experimento: Es una prueba o ensayo. Es el proceso de obtener una observación.

Diana del Pilar Cobos del Angel. Experimento: Es una prueba o ensayo. Es el proceso de obtener una observación. Diana del Pilar Cobos del Angel Términos básicos Experimento: Es una prueba o ensayo. Es el proceso de obtener una observación. Eventos Simples: Cualquier resultado básico de un experimento. Un evento

Más detalles

Relación de problemas: Variables aleatorias

Relación de problemas: Variables aleatorias Estadística y modelización. Ingeniero Técnico en Diseño Industrial. Relación de problemas: Variables aleatorias 1. Se lanza tres veces una moneda y se observa el número de caras. (a) Calcula la distribución

Más detalles

Examen de Estadística Ingeniería de Telecomunicación

Examen de Estadística Ingeniería de Telecomunicación Examen de Estadística Ingeniería de Telecomunicación 8 de Mayo de 3 Cuestiones solucion h C. (.5p) El equipo directivo de cierta empresa del sector de hostelería está constituido por 5 personas de las

Más detalles

Usamos que f( p) = q y que, por tanto, g( q) = g(f( p)) = h( p) para simplificar esta expresión:

Usamos que f( p) = q y que, por tanto, g( q) = g(f( p)) = h( p) para simplificar esta expresión: Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Propiedades de las funciones diferenciables. 1. Regla de la cadena Después de la generalización que hemos

Más detalles

Álgebra Vectorial. Principios de Mecánica. Licenciatura de Física. Curso 2007-2008. 1

Álgebra Vectorial. Principios de Mecánica. Licenciatura de Física. Curso 2007-2008. 1 Álgebra Vectorial Principios de Mecánica. Licenciatura de Física. Curso 2007-2008. 1 Indice. 1. Magnitudes Escalares y Vectoriales. 2. Vectores. 3. Suma de Vectores. Producto de un vector por un escalar.

Más detalles

Anexo 4. Herramientas Estadísticas

Anexo 4. Herramientas Estadísticas Anexo 4 Herramientas Estadísticas La estadística descriptiva es utilizada como una herramienta para describir y analizar las características de un conjunto de datos, así como las relaciones que existen

Más detalles

ÁLGEBRA DE MATRICES. Al consejero A no le gusta ninguno de sus colegas como presidente.

ÁLGEBRA DE MATRICES. Al consejero A no le gusta ninguno de sus colegas como presidente. ÁLGEBRA DE MATRICES Página 49 REFLEXIONA Y RESUELVE Elección de presidente Ayudándote de la tabla, estudia detalladamente los resultados de la votación, analiza algunas características de los participantes

Más detalles