Introducción a los Procesos de Poisson *
|
|
- Lucas Villalba Palma
- hace 7 años
- Vistas:
Transcripción
1 Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22 de julio del 2010 Índice 1. Introducción 2 2. Propiedades de la distribución de Poisson Aproximación de Poisson Distribución de Poisson Proceso de Conteo 6 4. Proceso de Poisson Homogéneo 6 5. Algunas variables aleatorias de interés Tiempos de llegada Tiempos entre llegadas Tiempo de próxima ocurrencia Tiempo desde última falla Simulación de un Proceso de Poisson Definición equivalente Combinación de Procesos de Poisson Proceso de Poisson compuesto Proceso de Poisson no homogéneo 22 * Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano de Probabilidad y Estadística, en julio de 2009 y
2 1. Introducción En estas notas se compila parte del material que se cubrió en el curso de Probabilidad I de las Licenciaturas en Matemáticas y en Computación de la Universidad de Guanajuato, en el semestre agosto-diciembre del Estas notas son un complemento al material de la primera parte del Curso de Procesos de Poisson del III Verano de Probabilidad y Estadística. Contienen material básico sobre Procesos de Poisson, el cual aparece en la mayoría de los textos que tratan este tema. El énfasis en estas notas es en el rigor de las definiciones y las demostraciones detalladas de las principales propiedades de estos procesos, usando conceptos y resultados sencillos de probabilidad. Los autores agradecen de antemano los comentarios que los participantes puedan tener. Nuestro objetivo es terminar pronto una Notas de Introducción al Tema de Procesos de Poisson, dirigidas a alumnos que han tomado un primer curso de probabilidad en licenciatura. 2. Propiedades de la distribución de Poisson 2.1. Aproximación de Poisson La distribución de Poisson es un caso límite de la distribución binomial B (n, p n cuando la probabilidad de éxito es variable. Si una variable aleatoria X modela el número de éxitos obtenidos luego de n ensayos Bernoulli con probabilidad de éxito p > 0, entonces la probabilidad de tener k éxitos en n ensayos está dada por P (X k ( n k p k (1 p n k. Se dice entonces que X tiene distribución binomial de parámetros n y p (X B (n, p. Si λ E(X np se mantiene constante cuando n y p varían, tenemos que π k (λ lím n P (X k λk e λ para toda r 0. (notemos que cuando n crece, p decrece. Ejercicio 1 Probar (1. Sugerencia: Recordar que lím n ( 1 + x n n e x. ( Distribución de Poisson Definición 1 Una variable aleatoria X tiene distribución de Poisson P (λ si toma valores enteros positivos y P (X k π k (λ λ k e λ 2 k 0
3 donde λ puede tomar cualquier valor λ > 0. Ejercicio 2 Probar que si X P (λ 1. E (X λ. 2. V ar (X λ. 3. La función generadora de momentos de X P (λ φ (t e λ(et 1. En ocasiones es útil extender la definición de P (λ para incluir los casos extremos 0 e. P (0 sería la distribución concentrada en el 0 P (X 0 1, y P ( la distribución concentrada en + P (X + 1. Una de las propiedades más importantes de la distribución de Poisson es su aditividad. Teorema 1 Si X y Y son variables aleatorias independientes con distribuciones P (λ 1 y P (λ 2, entonces X + Y P (λ 1 + λ 2. Demostración. Ejercicio. Por inducción, podemos ver fácilmente que este resultado es cierto para cualquier suma finita de variables aleatorias independientes. Además se tiene la siguiente propiedad importante. Ejercicio 3 Probar que la distribución de Poisson es infinitamente divisible, esto es, dada una variable aleatoria X con distribución Poisson P (λ, para toda n > 0 podemos encontrar n variables aleatorias independientes X 1,..., X n con distribución Poisson P (λ 1,..., P (λ n tales que n i1 X i P (λ. Teorema 2 (Teorema de Aditividad Numerable Sea {X j } j1 una sucesión de variables aleatorias independientes, donde X j P (λ j j 1, 2,.... Si σ converge, entonces S converge con probabilidad 1 y S P (σ. Por otro lado, si j1 λ j diverge, entonces S diverge con probabilidad 1. j1 j1 λ j X j 3
4 Demostración. Por el Teorema 1, tenemos que S n tiene distribución P (σ n donde σ n n j1 X j n λ j. j1 Es fácil ver que n 1 {S n r} {S n+1 r}, de donde {S r} {S n r} n1 y por tanto 1 y P (S r lím n r n r lím P (S n r n k0 lím n k0 k0 r π k (σ n r lím π k (σ n. n Si σ n σ <, por ser π r (λ continua tenemos que P (S r r π k (σ k0 P (S r π r (σ. Por lo tanto S es finita con distribución P (σ. Si σ n, Entonces P (S r r π k (σ k0 e σn r k0 P (S > r 1. σ k n 0. 1 Si A n F, n 1 y A n A, entonces P (A lím n P (A n 4
5 Como este resultado es cierto r 0, podemos concluir que S diverge con probabilidad 1. Luego de este resultado parece más natural haber definido P (0 y P (. Con esta convención, si tenemos variables aleatorias independientes X j con distribuciones P (λ j respectivamente, su suma tiene distribución P ( λ j, y esto es cierto sin importar que haya un número infinito de ellas, incluso si algunos λ j son 0 o. Supongamos que X 1,..., X n son variables aleatorias independientes con X j P (λ j. Entonces S X 1 + +X n tiene distribución P (σ con σ λ j, y entonces, si r 1,..., r n son tales que r j s tenemos que n / λ rj j P (X 1 r 1,..., X n r n S s e λj σ s e σ r j1 j! s! ( r1 ( rn s! λ1 λn. r 1! r n! σ σ Estas son las probabilidades de una distribución multinomial M (s, p 1,..., p n, con p i λi σ. Para el caso en el que n 2, tenemos que si X y Y son variables aleatorias Poisson independientes (X P (λ 1 y Y P (λ 2, dado que X + Y m, la distribución condicional de X es B (m, p, donde p E (X E (X + E (Y. Hay un resultado muy útil, que parecería ser el converso del anterior. Supongamos que N P (λ, y que la distribución condicional de M dado N es B (N, p para alguna constante p. Esto es ( s P (M t N s p t (1 p s t. t Entonces, para m, k 0, P (M m, N M k P (N m + k P (M m N m + k e λ λ m+k ( m + k p m (1 p k (m + k! m e λ λ m+k (m + k! (m + k! p m (1 p k m! e λp e λ(1 p λ m λ k 1 m! pm (1 p k e λp λ m p m e λ(1 p λ k (1 p k m! e λp (λp m e λ(1 p (λ (1 p k. m! 5
6 Así, M y N M son variables aleatorias independientes Poisson con medias λp y λ (1 p respectivamente. 3. Proceso de Conteo Definición 2 (Proceso de Conteo Se dice que un proceso estocástico {N (t ; t 0} es un proceso de conteo si representa el número de eventos ocurridos hasta el tiempo t, esto es, satisface: i N (0 0. ii N (t toma valores enteros. iii Es no decreciente, i.e. si s < t, entonces N (s N (t. iv Para s < t, N (t N (s es igual al número de eventos que ocurrieron en el intervalo (s, t]. La trayectoria de un proceso de conteo es la gráfica (t, N(t para t 0. Las trayectorias se toman de tal forma de que sean continuas por la derecha y que tengan límite por la izquierda. 4. Proceso de Poisson Homogéneo Definición 3 (Proceso de Poisson homogéneo Una colección de variables aleatorias {N (t ; t 0} (definidas en un espacio de probabilidad (Ω, F, P se llama proceso de Poisson (homogéneo con intensidad λ > 0 si satisface las siguientes propiedades: i P(N(0 0 1, esto es, N(0 es siempre 0. ii 0 < s < t N(t N(s tiene distribución de Poisson de parámetro λ(t s. iii 0 t 1 < < t n, n 1 (es decir, para todo conjunto finito de tiempos, las variables aleatorias N(t n N(t n 1,..., N(t 2 N(t 1, N(t 1, son independientes. Esta propiedad se conoce como propiedad de incrementos independientes. Observemos que t 0, la variable aleatoria N(t tiene distribución de Poisson de parámetro λt. Por (ii tenemos que N(t N(0 P (λ(t 0, y por (i tenemos que N(0 0, lo que nos dice que N(t P (λt. Ahora, 0 < s < t tenemos por (ii que N(t N(s P (λ(t s y por lo anterior, N(t s P (λ(t s. Podemos darnos cuenta entonces que la 6
7 distribución del incremento N(t N(s y la de la variable aleatoria N(t s es la misma. Además esto nos dice que P(N(t N(s 0 1, pues P(N(t N(s 0 P(N(t N(s k 1, k0 esto es, la distribución sólo depende de la longitud del intervalo t s. Esta propiedad se conoce como propiedad de incrementos estacionarios. Notemos además que esta propiedad nos garantiza que el proceso es no decreciente. 5. Algunas variables aleatorias de interés 5.1. Tiempos de llegada Podemos darnos ahora una idea de cómo se ven las trayectorias de un proceso de Poisson, y una pregunta que debemos hacernos es qué distribución tienen los tiempos de llegada del proceso?, entendiendo por tiempos de llegada los tiempos en los que ocurre un éxito. Para poder ver la distribución de los tiempos de llegada, es necesario asociarles una variable aleatoria. Queremos que el tiempo del primer éxito sea el t más pequeño para el que N(t 1, esto es, podemos definir el tiempo del primer éxito como T 1 ínf {t 0; N(t 1}. Ahora, queremos que dado un m 1 el m-ésimo tiempo de llegada sea el t más pequeño para el que N(t m, entonces podemos definir el tiempo del m-ésimo éxito de la misma forma que antes, pues el proceso es no decreciente, T m ínf {t 0; N(t m}. La pregunta ahora es son T 1, T 2,..., T m,... variables aleatorias? Proposición 1 t 0 y m > 0 tenemos que {T m t} {N(t m}. Demostración. Recordemos que {N(t m} {ω Ω : N(t(ω m} y {T m t} {ω Ω : T m (ω t}. Sean t 0 y m > 0. Por definición T m ínf {k 0 : N(k m}, esto es, para un ω Ω dado tenemos que T m (ω ínf {k 0; N(k(ω m}. En particular N(T m (ω(ω m. Sea ω 0 {N(t m}. Entonces N(t(ω 0 m N(t(ω 0 N(T m (ω 0 (ω 0. Luego, como N(t es no decreciente, tenemos que t T m (ω 0, es decir ω 0 {T m t}. {N(t m} {T m t}. 7
8 Sea ω 0 {T m t}. Entonces T m (ω 0 t N(T m (ω 0 (ω 0 N(t(ω 0 m N(t(ω 0 es decir, ω 0 {N(t m}. {T m t} {N(t m}. {T m t} {N(t m} Corolario 1 m > 0 tenemos que T m es una variable aleatoria. 2 Ahora que ya vimos que los tiempos de llegada son variables aleatorias, veamos qué distribución tiene el primer tiempo de llegada. Proposición 2 T 1 tiene distribución exponencial de parámetro λ > 0. 3 Demostración. Como {T 1 t} {N(t 1}, lo que nos dice que T 1 E(λ. P(T 1 t P(N(t 1 1 P(N(t 0 1 (λt 0 e λt 0! 1 e λt, Corolario 2 El tiempo esperado de la primera llegada es E(T 1 1 λ. Proposición 3 La v.a. T m tiene distribución G ( m, 1 λ. f Tm (t { 1 Γ(m λm 1 e λt si t 0 0 de otra forma. 2 Recordar definición de variable aleatoria. 3 Recordemos que una variable aleatoria X tiene distribución exponencial de parámetro λ > 0 si P (X x x 0 f (t dt, con f (t λe λt. 8
9 Demostración. De la proposición 1 tenemos Derivando obtenemos P(T m t P(N(t m f Tm (t d dt ( m 1 λe λt 1 P(N(t m 1 m 1 1 P(N(t k k0 m 1 1 (λt k e λt e λt m 1 k0 ( m 1 λe λt k0 ( m 1 λe λt k0 k0 (λt k k0 (λt k (λt k (λt k λt (λtm 1 λe (m 1! 1 Γ(m λm t m 1 e λ m 1 e λt m 1 k1 m 2 k0 λk (λtk 1 (λt k 1 (k 1! (λt k que es la función de densidad de una v.a. con distribución G ( m, 1 λ. k Tiempos entre llegadas Definición 4 (Tiempo entre llegadas 4 τ t ínf {s > t : N (s N (t 1} Teorema 3 n 1, las v.a. τ 1, τ 2,..., τ n son independientes y con la misma distribución exponencial E(λ. Demostración. Veamos primero el caso cuando n 2. Queremos demostrar que 0 < s 1 < s 2 < se tiene que P(τ 1 s 1, τ 2 < s 2 P(τ 1 s 1 P(τ 2 s 2. 4 (! Checar que esté bien definido... 9
10 P(τ 1 s 1, τ 2 s 2 P(T 1 s 1, T 2 T 1 s 2 P(T 1 s 1, T 2 s 2 + T 1 P(T 1 s 1, T 2 s 1 + s 2 P(N(s 1 1, N(s 1 + s 2 2 P(N(s 1 k 1, N(s 1 + s 2 2 k 11 P(N(s 1 k 1, N(s 1 + s 2 k 2 k 11 k 2 2 k 1 <k 2 k 11 k 2k 1+1 k 11 k 2k 1+1 por incrementos independientes P (τ 1 s 1, τ 2 s 2 k 11 k 2k 1+1 usando la propiedad de incrementos estacionarios P(τ 1 s 1, τ 2 s 2 P(N(s 1 k 1, N(s 1 + s 2 k 2 P(N(s 1 k 1, N(s 1 + s 2 N(s 1 k 2 k 1 P(N(s 1 k 1 P(N(s 1 +s 2 N(s 1 k 2 k 1 k 11 k 2k 1+1 k 11 k 21 P(N(s 1 k 1 P(N(s 2 k 2 k 1 P(N(s 1 k 1 P(N(s 2 k 2 ( ( P(N(s 1 k 1 P(N(s 2 k 2 k 11 k 21 (1 P(N(s 1 0 (1 P(N(s 2 0 ( 1 e λs1 ( 1 e λs2 Hasta ahora hemos demostrado que 0 < s 1 < y 0 < s 2 < P(τ 1 s 1, τ 2 s 2 ( 1 e λs1 ( 1 e λs2, (2 pero ya sabemos que T 1 E(λ, entonces P(τ 1 s 1, τ 2 s 2 P(T 1 s 1 ( 1 e λs2 P(τ 1 s 1 ( 1 e λs2. 10
11 Del lado izquierdo de (2 tenemos y como tenemos que Entonces lím P(τ 1 s 1, τ 2 s 2 P(τ 2 s 2, s 1 lím P(T 1 s 1 1, s 1 P(τ 2 s 2 1 e λs2 τ 2 E(λ. 0 < s 1 < P (τ 1 s 1, τ 2 s 2 P (τ 1 s 1 P (τ 2 s 2, esto es, τ 1 y τ 2 son independientes y tienen la misma distribución exponencial E (λ. Veamos ahora el caso para n 2. Supongamos que τ 1, τ 2,..., τ n son independientes y que τ i E(λ para 1 i n, esto es, 0 < s 1 < s 2 < < s n < tenemos que n n ( P(τ 1 s i ; 1 i n (τ i s i 1 e λs i. i1 Queremos demostrar que τ 1, τ 2,..., τ n, τ n+1 son independientes y que τ n+1 E(λ. Sean 0 < s 1 < s 2 < < s n < s n+1 <. Entonces P(τ i s 1 ; 1 i n + 1 P (T i T i 1 s i ; 1 i n + 1 i1 P (T i s i + T i 1 ; 1 i n + 1 i 1 P T i s i + s j ; 1 i n + 1 P T i j1 i s j ; 1 i n + 1 j1 i P N j1 s j 1 k 1< <k n+1 P 1 k 1< <k n+1 P 1 k 1< <k n+1 P i ; 1 i n + 1 i N j1 i N j1 i N j1 s j s j s j k i ; 1 i n + 1 k i ; 1 i n + 1 i 1 N j1 s j i 1 k i k j ; 1 i n + 1 j1 11
12 por incrementos independientes P(τ i s 1 ; 1 i n+1 por incrementos estacionarios P(τ i s 1 ; 1 i n + 1 haciendo cambio de variable n+1 1 k 1< <k n+1 i1 1 k 1< <k n+1 i1 i P N n+1 j1 s j i 1 N j1 i 1 P N (s i k i j1 s j k j i 1 k i j1 k j P(τ i s 1 ; 1 i n + 1 n+1 k 1,...,k n+11 i1 n+1 i1 n+1 i1 n+1 i1 P (N (s i k i ( P (N (s i k k1 (1 P (N (s i 0 ( 1 e λs i Hemos demostrado hasta ahora que P(τ i s i ; 1 i n + 1 y como por hipótesis tenemos que P(τ 1 s i ; 1 i n n+1 i1 ( 1 e λs i n ( 1 e λs i entonces ( n (1 P (τ i s i ; 1 i n + 1 P (τ i s i e λs n+1. Tomando límites de ambos lados lím s i 1 i n i1 i1 P(τ i s i ; 1 i n + 1 lím s i 1 i n n P (τ i s i ( 1 e λsn+1 i1 P (τ n+1 s n+1 1 e λsn+1. 12
13 Por lo tanto, n 1, las variables aleatorias τ 1,..., τ n son independientes y tienen la misma distribución exponencial E (λ. No es difícil convencerse de que T m m τ k, (3 k0 entonces, como E (λ G ( 1, λ 1 y la suma de n variables aleatorias independientes con la misma distribución G (k, α tiene distribución G (nk, α, tenemos que ( T m G m, 1. λ Ejercicio 4 Probar ( Tiempo de próxima ocurrencia Definición 5 (Tiempo de próxima falla Dado un tiempo t queremos estudiar el tiempo que tardaremos en tener otra falla. Definamos φ t : ínf {s 0 ; N(s + t N(t 1} como el tiempo de la primera falla a partir del tiempo t. Proposición 4 φ t tiene distribución exponencial E(λ independiente de t. Demostración. Sea g(s 1 P (φ t s P (φ t > s. Observemos que {φ t > s} {τ t > t + s} s < t. g(s + h P (φ t > s + h P (τ t > t + s + h P (τ t > t + s, N (t + s + h N (t + s 0. El evento {τ t s + t} depende de lo que pasa hasta el tiempo t + s 5 y por la propiedad de incrementos independientes, es independiente de lo que ocurre en el intervalo (t + s, t + s + h]. Esto nos dice que {τ t s + t}, y {N (t + s + h N (t + s 0} son independientes, y por lo tanto {τ t > s + t} y{n (t + s + h N (t + s 0} también lo son 6. Entonces tenemos g (s + h P (τ t > t + s P (N (t + s + h N (t + s 0 P (φ t > s P (N (h 0 g(se λh. 5 Esto es lo que se conoce como tiempo de paro. 6 Recordemos que si dos eventos A y B son independientes, entonces A C y B son independientes, A y B C son independientes y A C y B C son independientes. 13
14 Así, g(s + h g(s g(s ( e λh 1 h h y tomando límites nos queda que g (s ( g(s e λh 1 lím h 0 h e λh 1 g (s lím h 0 h λg (s. Sabemos que las únicas soluciones para g (s λg (s son de la forma y también que Entonces por lo tanto g (s ke λs k R, g (0 P (φ t > 0 1. P (φ t > s e λs, P (φ t s 1 e λs s > 0. Esto es, t φ t tiene distribución exponencial E (λ. Proposición 5 Una variable aleatoria X con distribución exponencial de parámetro λ > 0, tiene la propiedad de pérdida de memoria. Esto es P (X > t + s X > s P (T > t. Demostración. Observemos que t 0 pues tenemos que Sean s, t 0. Entonces P (X > t e λt, P (X t 1 e λt. P (T > t + s T > s P (T > t + s, T > s P (T > s P (T > t + s P (T > s e λ(t+s e λs e λt P (T > t. Por lo tanto X E (λ tiene la propiedad de pérdida de memoria. 14
15 Proposición 6 Un proceso de Poisson de parámetro λ > 0, tiene la propiedad de pérdida de memoria Tiempo desde última falla Definición 6 (Tiempo desde última falla Dado un tiempo t queremos estudiar el tiempo que ha pasado desde la última falla. Definamos l t : ínf {s 0 : N (t N (t s 0} como el tiempo desde que ocurrió la última falla. Proposición 7 La distribución de l t es la siguiente: P (l t t e λt. P (l t s 1 e λs 0 s < t. Demostración. Se deja como ejercicio checar que l t esté bien definida y es variable aleatoria. En el primer caso tenemos que y P (l t t P (N (t N (t t 0 P (N (t 0 P (T 1 t e λt. En el segundo caso tenemos que si 0 s < t P (l t s P (N (t N (t s 1 P (l t > s P (N (t N (t s 0 P (N (s 0 P (T 1 s e λs, entonces P (l t s 1 e λs Observemos que la distribución de la proposición anterior es tal que tiene un salto en t y de otra forma tiene densidad. Es un ejemplo de una distribución que tiene una parte discreta y otra parte continua. 15
16 6. Simulación de un Proceso de Poisson Proposición 8 Sean U U (0, 1 y λ > 0. Entonces 1 λ ln (1 U E (λ. Demostración. Queremos demostrar que P ( 1λ { 1 e ln (1 U x λx x 0 0 x 0. P ( 1λ ln (1 U x P (ln (1 U λx P ( 1 U e λx P ( U 1 e λx. Recordemos que entonces F U (x P ( U 1 e λx como queríamos. Por lo tanto 1 λ ln (1 U E (λ. { x 0 x 1 0 en otro caso, { 1 e λx x 0 0 x 0, La proposición anterior nos muestra un método para simular en una computadora una variable aleatoria con distribución E (λ usando un generador de números aleatorios uniforme en (0, 1. Entonces, como en un proceso de Poisson de parámetro λ > 0, τ m E (λ y T m m k0 τ k, podemos simular los tiempos de llegada como una suma de variables aleatorias exponenciales E (λ. 7. Definición equivalente Definición 7 (Proceso de Poisson homogéneo Una colección de variables aleatorias {N (t, t 0} es un Proceso de Poisson homogéneo de parámetro λ > 0 si: 1. P (N ( N (t tiene incrementos estacionarios. 3. N (t tiene incrementos independientes. 4. Para h pequeña: a P (N (t + h N (t 1 λh + o (h. 16
17 b P (N (t + h N (t > 1 o (h. Observaciones: La condición 4.a nos dice que la probabilidad de que ocurra exactamente un evento en un intervalo de tiempo pequeño, es "proporcional. a la longitud del intervalo. La condición 4.b nos dice que la probabilidad de que ocurran dos o más eventos en un intervalo de tiempo pequeño es despreciable. Teorema 4 Las definiciones 3 y 7 son equivalentes. Demostración. Veamos primero que (3 (7. En la sección 4 vimos que de acuerdo con la definición 3, un proceso de Poisson homogéneo tiene la propiedad de incrementos estacionarios, esto es (3 (7.2 Falta ver que (3 (7.4. a P (N (t + h N (t 1 P (N (h 1 (λh e λh λh + λh ( e λh 1 Luego, como tenemos que b y como tenemos que esto es, λh ( e λh 1 ( lím λ lím e λh 1 0, h 0 h h 0 P (N (t + h N (t 1 λh + o (h. P (N (t + h N (t > 1 P (N (h > 1 (λh k e λh (λh k e λhh lím h 0 h lím h 0 k2 k2 λ lím h 0 hk 1 e λhk 0 k 2 (λh k e λh 0, P (N (t + h N (t > 1 o (h. 17
18 Por lo tanto (3 (7. Veamos ahora que (7 (3. Falta ver que (7 (3.ii. Definamos una función Veamos que f (t, 0 e λh. f (t + h, 0 P (N (t + h 0 Tenemos entonces f (t, n : P (N (t n. P (N (t 0, N (t + h N (t 0 P (N (t 0 P (N (t + h N (t 0 f (t, 0 (1 P (N (t + h N (t 1 f (t, 0 (1 (P (N (t + h N (t 1 + P (N (t + h N (t > 1 f (t, 0 (1 ((λh + o (h + o (h f (t, 0 (1 (λh + o (h f (t, 0 (1 λh + o (h. f (t + h, 0 f (t, 0 f (t, 0 ( λh + o (h lím lím h 0 h h 0 h f (t, 0 λf (t, 0, de donde Notemos que n > 1 f (t, 0 e λt. d f (t, n λ (f (t, n 1 f (t, n. dt 18
19 f (t + h, n P (N (t + h n n P (N (t n k, N (t + h N (t k Entonces k0 n P (N (t n k P (N (t + h N (t k k0 P (N (t n P (N (t + h N (t 0 + P (N (t n 1 P (N (t + h N (t 1 n + P (N (t n k P (N (t + h N (t k k2 f (t, n (1 P (N (t + h N (t 1 + f (t, n 1 (λh + o (h + (λt n k e λt (n k! o (h k2 f (t, n (1 (P (N (t + h N (t 1 + P (N (t + h N (t > 1 +λh f (t, n 1 + o (h f (t, n (1 ((λh + o (h + o (h + λh f (t, n 1 + o (h f (t, n + λh (f (t, n 1 f (t, n + o (h. f (t + h, n f (t, n lím h 0 h lím h 0 λh (f (t, n 1 f (t, n + o (h h d f (t, n λ (f (t, n 1 f (t, n. dt Veamos ahora que n 0, f (t, n (λt n e λt d ((λt n+1 e λt dt (n + 1! n!. λ n+1 d ( t n+1 e λt (n + 1! dt λ n+1 ( (n + 1 t n e λt λt n+1 e λt (n + 1! λ ((λt n e λt (λt n+1 e λt n! (n + 1! Luego, por el Teorema de Existencia Unicidad de solución de ecuaciones diferenciales, tenemos el resultado. Por lo tanto {N (t, t 0} es un Proceso de Poisson de parámetro λ (de acuerdo con las definición (3. Las dos definiciones son equivalentes. 19
20 8. Combinación de Procesos de Poisson Teorema 5 Sean {N 1 (t, t 0} y {N 2 (t, t 0} procesos de Poisson independientes con parámetros λ 1 y λ 2 respectivamente. Sea N (t N 1 (t + N 2 (t, t 0. Entonces {N (t, t 0} es un proceso de Poisson de parámetro λ 1 + λ 2. Demostración. Claramente N (0 0. Recordemos que si S n n i1 X i y X i P (λ i, entonces S n P ( n i1 λ i. Entonces t 0 tenemos que N (t P (t (λ 1 + λ 2. Recordemos también que si tenemos {A i } y {B i } dos sucesiones de variables aleatorias independientes, independientes entre sí, entonces {A i + B i } es una sucesión de variables aleatorias independientes. Esto nos dice que N (t tiene incrementos independientes, pues dados t 0 0 < t 1 < t 2 < < t n tenemos que {N i (t j N i (t j 1, j 1,..., n} i 1, 2 son independientes, y por tanto N (t j N (t j 1, j 1,..., n también lo son. Por lo tanto {N (t, t 0} es un Proceso de Poisson de parámetro λ 1 + λ 2. Corolario 3 Sean {N 1 (t, t 0}, {N 2 (t, t 0},..., {N n (t, t 0} procesos de Poisson independientes con parámetros λ 1, λ 2,..., λ n respectivamente. Sea N (t n k1 N k (t, t 0. Entonces {N (t, t 0} es un proceso de Poisson de parámetro n k1 λ k. 9. Proceso de Poisson compuesto Definición 8 (Proceso de Poisson Compuesto Sea {X i } i 1 una sucesión de variables aleatorias independientes idénticamente distribuidas e independientes del proceso de Poisson {N (t, t 0} de parámetro λ. El proceso X (t N(t i1 se llama proceso de Poisson compuesto. Teorema 6 Sea {N (t, t 0} un proceso de Poisson de parámetro λ. Supongamos que cada llegada es de tipo 1 con probabilidad p 1 o de tipo 2 con probabilidad p 2 1 p 1, independiente de las demás llegadas. Sea N i (t el número de llegadas del tipo i hasta el tiempo t. Entonces {N 1 (t, t 0} y {N 2 (t, t 0} son procesos de Poisson independientes con parámetros λp 1 y λp 2 respectivamente. X i 20
21 Demostración. Sea {ξ k } k 0 una sucesión de variables aleatorias Bernoulli de parámetro p 1. Entonces y N 2 (t N(t k1 N 1 (t N(t k1 ξ k (1 ξ k N (t N 1 (t. Es claro que N 1 (t y N 2 (t tienen incrementos independientes y estacionarios, pues N (t los tiene. Además también es fácil darse cuenta de que P (N i (t + h N i (t > 1 o (h, pues P (N (t + h N (t > 1 o (h y N i (h s N (t s. Veamos que para h pequeña P (N 1 (t + h N 1 (t 1 p 1 λh + o (h. P (N 1 (t + h N 1 (t 1 P N(t+h k1 P N(t+h N(t+1 N(t ξ k ξ k 1 k1 ξ k 1 P (N (t + h N (t 1, ξ k 1 P (N (t + h N (t 1 P (ξ k 1 (λh + o (h p 1 λp 1 h + o (h. Similarmente podemos ver que P (N 2 (t + h N 2 (t 1 λp 2 h + o (h. {N 1 (t, t 0} y {N 2 (t, t 0} son Procesos de Poisson con parámetros λp 1 y λp 2. Veamos ahora que son independientes. Sea t 0 y s 1, s 2 R. P (N 1 (t s 1, N 2 (t s 2 s 1 k 10 s 1 s 2 k 10 k 20 P (N 1 (t k 1, N 2 (t s 2 P (N 1 (t k 1, N 2 (t k 2 como sabemos que N 1 (t + N 2 (t N (t P (N 1 (t k 1, N 2 (t k 2 P (N 1 (t k 1, N 2 (t k 2 N (t k 1 + k 2 P (N (t k 1 + k 2 y ( k1 + k 2 P (N 1 (t k 1, N 2 (t k 2 N (t k 1 + k 2 p k1 1 pk2 2 k 1 21
22 entonces P (N 1 (t s 1, N 2 (t s 2 s 1 s 2 k 10 k 20 s 1 s 2 k 10 k 20 s 1 s 2 k 10 k 20 s 1 s 2 k 10 k 20 ( k1 + k 2 k 1 p k1 1 pk2 2 (λtk1+k2 e λt (k 1 + k 2! 1 k 1!k 2! pk1 1 (λtk1 p k2 2 (λtk2 e λ(p1+p2t (λp 1 t k1 e λp1t k 1! (λp 2 t k2 e λp2t k 2! P (N 1 (t k 1 P (N 2 (t k 2 ( s1 ( s2 P (N 1 (t k 1 P (N 2 (t k 2 k 10 k 20 P (N 1 (t s 1 P (N 2 (t s 2. Por lo tanto {N 1 (t, t 0} y {N 2 (t, t 0} son procesos de Poisson independientes con parámetros λp 1 y λp 2. Corolario 4 Sea {N (t, t 0} un proceso de Poisson de parámetro λ. Sea {X k } k1 una sucesión de variables aleatorias independientes con la misma distribución discreta {p k } n k1. Supongamos que cada llegada es de tipo i con probabilidad p i, independiente de las demás llegadas. Sea N i (t el número de llegadas del tipo i hasta el tiempo t. Esto es donde N i (t δ i j N(t k0 δ i Xk { 0 si i j 1 si i j. Entonces {N 1 (t, t 0},..., {N n (t, t 0} son procesos de Poisson independientes con parámetros λp 1,..., λp n respectivamente. 10. Proceso de Poisson no homogéneo Definición 9 (Proceso de Poisson no homogéneo con intensidad Λ (t Una colección de variables aleatorias {N(t, t 0} se llama proceso de Poisson no homogéneo con intensidad Λ (t si satisface las siguientes propiedades: a P(N(
23 b N (t tiene incrementos independientes. c 0 < s < t se tiene que P (N (t N (s k (Λ (t Λ (s k e (Λ(t Λ(s k 0, 1, 2,.... Esto es N (t N (s P (Λ (t Λ (s, donde Λ (t es no decreciente y Λ (0 0. Veamos la distribución del tiempo del primer evento (T 1 en un proceso de Poisson de intensidad Λ (t. P (T 1 t P (N (t 1 1 P (N (t 0 1 e Λ(t. Esto es F T1 (x 1 e Λ(t. Si Λ (t es diferenciable en t con derivada λ (t, entonces f T1 (t λ (t e Λ(t. Notemos que un Proceso de Poisson homogéneo es un caso particular de un Proceso de Poisson no homogéneo, tomando Λ (t λt. En general es usual proponer donde λ (s 0 s. Λ (t t 0 λ (s ds, 23
III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios
III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios Esta lista contiene ejercicios y problemas tanto teóricos como de modelación. El objetivo
Más detallesModelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Más detallesProceso de llegadas de Poisson
Gestión y Planificación de Redes y Servicios Proceso de llegadas de Poisson Area de Ingeniería Telemática http://www.tlm.unavarra.es Grado en Ingeniería en Tecnologías de Telecomunicación, 4º Proceso de
Más detallesTeoría de la Probabilidad Tema 2: Teorema de Extensión
Teoría de la Probabilidad Tema 2: Teorema de Extensión Alberto Rodríguez Casal 25 de septiembre de 2015 Definición Una clase (no vacía) A de subconjuntos de Ω se dice que es un álgebra si A es cerrada
Más detallesGeneración de variables aleatorias continuas Método de la transformada inversa
Generación de variables aleatorias continuas Método de la transformada inversa Georgina Flesia FaMAF 16 de abril, 2013 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Más detallesUnidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Más detallesModelos de colas exponenciales
Tema 6 Modelos de colas exponenciales 6.1. La distribución exponencial y los procesos de Poisson 6.1.1. Distribución exponencial El análisis de los distintos modelos de colas está determinado en gran parte
Más detallesDistribuciones de probabilidad más usuales
Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y
Más detallesAlgunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda
Más detallesTema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Más detallesApéndice sobre ecuaciones diferenciales lineales
Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 2 Determinante wronskiano. Wronskiano de f 1 (t), f 2 (t),..., f n (t). Derivada de un determinante de funciones.
Más detallesVariables aleatorias
Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando
Más detallesÓrdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple
Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple Estos apuntes están redactados por Maria de los Angeles Isidro Pérez y Egor Maximenko.
Más detallesProcesos estocásticos. Definición
Procesos estocásticos Definición http://humberto-r-alvarez-a.webs.com Definición de proceso estocástico Estudio del comportamiento de una variable aleatoria a lo largo del tiempo El ajuste de cualquier
Más detallesProbabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 3 Variables aleatorias Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.
Más detallesSemana 09 [1/28] Sucesiones. 29 de abril de Sucesiones
Semana 09 [1/28] 29 de abril de 2007 Semana 09 [2/28] Definición Sucesión Una sucesión real es una función: f : N R n f (n) Observaciones Para distinguir a una sucesión de las demás funciones, se ocupará
Más detallesProbabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid
Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X
Más detalles1. Convergencia en medida
FACULTAD CS. FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA3801 Teoría de la Medida. Semestre 2009-02 Profesor: Jaime San Martín Auxiliares: Andrés Fielbaum y Cristóbal Guzmán Clase auxiliar 7 21 de Septiembre
Más detallesTema 2: Teorema de estructura de los grupos abelianos finitamente generados.
ESTRUCTURAS ALGEBRAICAS GRADO EN MATEMÁTICAS. CURSO 215/216 Tema 2: Teorema de estructura de los grupos abelianos finitamente generados. 1.1. Grupo abeliano libre. Bases. Definición 1.1. El grupo Z n con
Más detallesTema 5 Algunas distribuciones importantes
Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos
Más detallesUnidad II: Fundamentos de la teoría de probabilidad
Unidad II: Fundamentos de la teoría de probabilidad 2.1 Teoría elemental de probabilidad El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos que se denominan aleatorios, cuya característica
Más detallesConjuntos Medibles. Preliminares
Capítulo 18 Conjuntos Medibles Preliminares En el capítulo anterior vimos que la medida exterior de Lebesgue no resulta σ-aditiva en todo R n. Ahora vamos a construir una familia M de subconjuntos de R
Más detallesDistribuciones Tipo Fase y sus Aplicaciones en la Teoría de la Ruina
Tesis para obtener el grado de Magister en Matemática Aplicada Distribuciones Tipo Fase y sus Aplicaciones en la Teoría de la Ruina Leider Salcedo García Sandra Rojas Sevilla Director: Prof. Msc. Francisco
Más detallesContinuidad. 5.1 Continuidad en un punto
Capítulo 5 Continuidad 5.1 Continuidad en un punto Definición 5.1.1 (Aplicación continua en un punto). Sean (X, τ) e (Y, τ ) dos espacios topológicos, y sea f : X Y una aplicación entre ellos. Diremos
Más detallesVariables aleatorias
Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 3
Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Variables aleatorias
Más detallesTema 2 Resolución de EcuacionesNo Lineales
Tema 2 Resolución de Ecuaciones No Lineales E.T.S.I. Informática Indice Introducción 1 Introducción 2 Algoritmo del método de Bisección Análisis del 3 4 5 6 Algoritmo de los métodos iterativos Interpretación
Más detallesFunciones de Clase C 1
Capítulo 7 Funciones de Clase C 1 Vamos a considerar ahora la extensión a varias variables del concepto de función de clase C 1. Cada vez que establezcamos una propiedad de las funciones diferenciables,
Más detallesTeoremas de convergencia y derivación bajo el signo integral
Capítulo 8 Teoremas de convergencia y derivación bajo el signo integral En este capítulo estudiaremos sucintamente bajo qué circunstancias puede intercambiarse el orden de la integral con las operaciones
Más detallesModelado de la aleatoriedad: Distribuciones
Modelado de la aleatoriedad: Distribuciones Begoña Vitoriano Villanueva Bvitoriano@mat.ucm.es Facultad de CC. Matemáticas Universidad Complutense de Madrid I. Distribuciones Discretas Bernoulli (p) Aplicaciones:
Más detallesEspacios topológicos. 3.1 Espacio topológico
Capítulo 3 Espacios topológicos 3.1 Espacio topológico Definición 3.1.1. Un espacio topológico es un par (X, τ), donde X es un conjunto, y τ es una familia de subconjuntos de X que verifica las siguientes
Más detallesDistribución binomial
Distribución binomial Cuando la Distribución de Benoulli se preguntaba Que pasara si sucede un único evento? la binomial esta asociada a la pregunta " Cuantas veces hay que realizar la prueba para que
Más detalles4. NÚMEROS PSEUDOALEATORIOS.
4. NÚMEROS PSEUDOALEATORIOS. En los experimentos de simulación es necesario generar valores para las variables aleatorias representadas estas por medio de distribuciones de probabilidad. Para poder generar
Más detallesMay 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN
May 4, 2012 1. Optimización Sin Restricciones En toda esta sección D denota un subconjunto abierto de R n. 1.1. Condiciones Necesarias de Primer Orden. Proposición 1.1. Sea f : D R diferenciable. Si p
Más detallesKolmogorov y la teoría de la la probabilidad. David Nualart. Academia de Ciencias y Universidad de Barcelona
Kolmogorov y la teoría de la la probabilidad David Nualart Academia de Ciencias y Universidad de Barcelona 1 La axiomatización del cálculo de probabilidades A. N. Kolmogorov: Grundbegriffe des Wahrscheinlichkeitsrechnung
Más detallesSubconjuntos notables de un Espacio Topológico
34 Capítulo 4 Subconjuntos notables de un Espacio Topológico 4.1 Adherencia Definición 4.1.1 (Punto adherente). Sea (X, τ) un espacio topológico, y sea S un subconjunto de X. Diremos que x X es un punto
Más detallesEXPERIMENTO ALEATORIO
EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,
Más detallesReceptor de Correlación. Sistemas de Comunicación
Receptor de Correlación Sistemas de Comunicación Facundo Mémoli * -Versión 2.- mayo, 22 * memoli@iie.edu.uy Índice. Introducción 3 2. Hipótesis y Planteo del Problema 3 3. Procedimiento 4 3.. Hipótesis
Más detallesSucesiones Introducción
Temas Límites de sucesiones. convergentes. Sucesiones divergentes. Sucesiones Capacidades Conocer y manejar conceptos de sucesiones convergentes y divergentes. Conocer las principales propiedades de las
Más detallesEcuaciones Diferenciales Ordinarias
Ecuaciones Diferenciales Ordinarias (Transformada de Laplace) Julio López jclopez@dim.uchile.cl Depto Ingeniería Matemática, Universidad de Chile Verano 2010, Resumen clases Julio López EDO 1/30 Introducción
Más detallesTerminaremos el capítulo con una breve referencia a la teoría de cardinales.
TEMA 5. CARDINALES 241 Tema 5. Cardinales Terminaremos el capítulo con una breve referencia a la teoría de cardinales. Definición A.5.1. Diremos que el conjunto X tiene el mismo cardinal que el conjunto
Más detalles1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido
E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 3: Solución aproximada de ecuaciones Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña
Más detallesPROBABILIDAD Y ESTADÍSTICA
PROBABILIDAD Y ESTADÍSTICA 4 horas a la semana 8 créditos Semestre variable según la carrera Objetivo del curso: Analizar y resolver problemas de naturaleza aleatoria en la ingeniería, aplicando conceptos
Más detallesALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Enteros
Resumen teoría Prof. Alcón ALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Z = N {0} N Enteros Las operaciones + y. son cerradas en Z, es decir la suma de dos números enteros es un número entero y el producto
Más detallesDefinición de probabilidad
Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total
Más detallesUna topología de los números naturales*
Una topología de los números naturales* Divulgación Gabriel Ruiz Hernández Instituto de Matemáticas, UNAM 1 de septimebre de 1997 resumen En este trabajo vamos a describir un espacio topológico X con las
Más detallesDistribuciones de probabilidad
Distribuciones de probabilidad Prof, Dr. Jose Jacobo Zubcoff Departamento de Ciencias del Mar y Biología Aplicada Inferencia estadística: Parte de la estadística que estudia grandes colectivos a partir
Más detallesF (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0
Probabilidades y Estadística (M) Práctica 5 1 o cuatrimestre 2014 Vectores aleatorios 1. a) Demostrar que la función F (x, y) = 1 e x y si x 0, y 0 0 en caso contrario no es la función de distribución
Más detallesMMAF: Espacios normados y espacios de Banach
MMAF: Espacios normados y espacios de Banach Licenciatura en Estadística R. Álvarez-Nodarse Universidad de Sevilla Curso 2011/2012 Espacios vectoriales Definición Sea V un conjunto de elementos sobre el
Más detallesCONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Más detallesVariables aleatorias continuas
Probabilidades y stadística Computación Facultad de Ciencias actas y Naturales Universidad de uenos ires na M ianco y lena J Martínez 004 Variables aleatorias continuas jemplo: Con el in de realizar un
Más detallesDistribuciones de probabilidad multivariadas
Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable
Más detallesTransformadas de Laplace
Semana 7 - Clase 9 9// Tema 3: E D O de orden > Algunas definiciones previas Transformadas de Laplace En general vamos a definir una transformación integral, F (s), de una función, f(t) como F (s) = b
Más detallesGeneración de Variables Aleatorias. UCR ECCI CI-1453 Investigación de Operaciones Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Generación de Variables Aleatorias UCR ECCI CI-453 Investigación de Operaciones Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción Las variables aleatorias se representan por medio de distribuciones
Más detallesProbabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro
Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro La probabilidad nos proporciona un modelo teórico para la generación de los datos experimentales Medidas de la Posibilidad
Más detallesDefinición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...
Índice 4 MODELOS DE DISTRIBUCIONES 4.1 4.1 Introducción.......................................... 4.1 4.2 Modelos de distribuciones discretas............................. 4.1 4.2.1 Distribución Uniforme
Más detallesCapítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta
Capítulo 3: Técnicas de Conteo Clase 2: Permutaciones y Combinaciones, Coeficientes Binomiales y Aplicaciones a Probabilidad Discreta Matemática Discreta - CC3101 Profesor: Pablo Barceló P. Barceló Matemática
Más detallesTeoría de Colas o Fenómenos de Espera
Teoría de Colas o Fenómenos de Espera Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Introducción 2 Introducción............................................................
Más detallesSeries. Capítulo Introducción. Definición 4.1 Sea (x n ) n=1 una sucesión de números reales. Para cada n N. S n = x k = x 1 + x x n.
Capítulo 4 Series 4 Introducción Definición 4 Sea (x n ) n= una sucesión de números reales Para cada n N definimos n S n = x k = x + x 2 + + x n k= La sucesión (S n ) n se conoce como la serie infinita
Más detallesGeneración de eventos en Procesos de Poisson
Generación de eventos en Procesos de Poisson Georgina Flesia FaMAF 26 de abril, 2012 Proceso de Poisson homogéneo N(t), t 0, es un proceso de Poisson homogéneo de razón λ, λ > 0, si: N(0) = 0 proceso comienza
Más detallesTeoremas de Convergencia
Capítulo 24 Teoremas de Convergencia El teorema de la convergencia monótona (Lema 21.3) establece ciertas condiciones sobre una sucesión de funciones medibles para que se puedan permutar los símbolos y
Más detallesTeorema del Valor Medio
Tema 6 Teorema del Valor Medio Abordamos en este tema el estudio del resultado más importante del cálculo diferencial en una variable, el Teorema del Valor Medio, debido al matemático italo-francés Joseph
Más detallesUNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS. Fracciones continuas, ecuación de Pell y unidades en el anillo de enteros de los cuerpos cuadráticos
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS FACULTAD DE CIENCIAS MATEMÁTICAS EAP DE MATEMÁTICA PURA Fracciones continuas, ecuación de Pell y unidades en el anillo de enteros de los cueros cuadráticos Caítulo
Más detallesEspacios Vectoriales
Espacios Vectoriales Espacios Vectoriales Verónica Briceño V. noviembre 2013 Verónica Briceño V. () Espacios Vectoriales noviembre 2013 1 / 47 En esta Presentación... En esta Presentación veremos: Espacios
Más detallesSemana02[1/23] Conjuntos. 9 de marzo de Conjuntos
Semana02[1/23] 9 de marzo de 2007 Introducción Semana02[2/23] La teoría de conjuntos gira en torno a la función proposicional x A. Los valores que hacen verdadera la función proposicional x A son aquellos
Más detallesUnidad Temática 3 UT3-1: Variable Aleatoria
Autoevaluación UT3 Unidad Temática 3 UT3-1: Variable Aleatoria Responda verdadero o falso. Coloque una letra V a la izquierda del número del ítem si acepta la afirmación enunciada, o una F si la rechaza.
Más detallesSistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad
Sistemas de ayuda a la decisión Modelización de la incertidumbre Tema 2. Incertidumbre y Probabilidad Indice 1) Sucesos aleatorios. Espacio muestral. 2) Operaciones con sucesos. 3) Enfoques de la Probabilidad.
Más detallesIndicaciones para el lector... xv Prólogo... xvii
ÍNDICE Indicaciones para el lector... xv Prólogo... xvii 1. INTRODUCCIÓN Qué es la estadística?... 3 Por qué estudiar estadística?... 5 Empleo de modelos en estadística... 6 Perspectiva hacia el futuro...
Más detallesTeorema Central del Límite (1)
Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico
Más detallesPROBABILIDAD Y ESTADISTICA
PLAN DE ESTUDIOS 2008 LICENCIADO EN INFORMÁTICA FACULTAD DE CONTADURÍA, ADMINISTRACIÓN E INFORMÁTICA ASIGNATURA: PROBABILIDAD Y ESTADISTICA ÁREA DEL MATEMÁTICAS CLAVE: I2PE1 CONOCIMIENTO: ETAPA FORMATIVA:
Más detallesAsignaturas antecedentes y subsecuentes
PROGRAMA DE ESTUDIOS PROBABILIDAD Área a la que pertenece: Área Sustantiva Profesional Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0056 Asignaturas antecedentes y subsecuentes PRESENTACIÓN
Más detallesIntroducción a la Teoría Analítica de Números
Introducción a la Teoría Analítica de Números Pablo De Nápoli clase 3. Ejemplos de funciones generatrices El teorema que vimos la clase anterior sobre el producto de series de Dirichlet permite determinar
Más detallesEspacios conexos. Capítulo Conexidad
Capítulo 5 Espacios conexos 1. Conexidad En este capítulo exploraremos el concepto de conexidad en un espacio métrico, y estudiaremos algunas de sus aplicaciones. Definición 5.1. Decimos que el espacio
Más detallesCurso de nivelación Estadística y Matemática
Curso de nivelación Estadística y Matemática Tercera clase: Introducción al concepto de probabilidad y Distribuciones de probablidad discretas Programa Técnico en Riesgo, 2014 Agenda 1 Concepto de probabilidad
Más detallesAlgebra Lineal. Gustavo Rodríguez Gómez. Verano 2011 INAOE. Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano / 21
Algebra Lineal Gustavo Rodríguez Gómez INAOE Verano 2011 Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano 2011 1 / 21 Espacios Vectoriales Espacios Vectoriales INAOE Gustavo Rodríguez Gómez (INAOE)
Más detallesProbabilidad. Carrera: IFM Participantes. Representantes de la academia de sistemas y computación de los Institutos Tecnológicos.
1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Probabilidad Licenciatura en Informática IFM - 0429 3-2-8 2.- HISTORIA DEL PROGRAMA
Más detallesDivergencia de sucesiones
Tema 7 Divergencia de sucesiones Nuestro próximo objetivo es prestar atención a ciertas sucesiones no acotadas de números reales, ue llamaremos sucesiones divergentes. Estudiaremos su relación con los
Más detallesFunciones convexas Definición de función convexa. Tema 10
Tema 10 Funciones convexas Los resultados obtenidos en el desarrollo del cálculo diferencial nos permiten estudiar con facilidad una importante familia de funciones reales de variable real definidas en
Más detallesCálculo I (Grado en Ingeniería Informática) Problemas adicionales resueltos
Cálculo I (Grado en Ingeniería Informática) - Problemas adicionales resueltos Calcula el ĺımite lím ( n + n + n + ) n Racionalizando el numerador, obtenemos L lím ( n + n + n (n + n + ) (n + ) + ) lím
Más detallesLección 2: Funciones vectoriales: límite y. continuidad. Diferenciabilidad de campos
Lección 2: Funciones vectoriales: límite y continuidad. Diferenciabilidad de campos vectoriales 1.1 Introducción En economía, frecuentemente, nos interesa explicar la variación de unas magnitudes respecto
Más detallesESCUELA COMERCIAL CÁMARA DE COMERCIO EXTENSIÓN DE ESTUDIOS PROFESIONALES MAESTRÍA EN ADMINISTRACIÓN
CICLO, ÁREA O MÓDULO: TERCER CUATRIMESTRE OBJETIVO GENERAL DE LA ASIGNATURA: Al termino del curso el alumno efectuara el análisis ordenado y sistemático de la Información, a través del uso de las técnicas
Más detallesPrueba Integral Lapso /6
Prueba Integral Lapso 2 009-2 76 - /6 Universidad Nacional Abierta Probabilidad y Estadística I (76) Vicerrectorado Académico Cód. Carrera: 06-20 - 508 Fecha: 2-2 - 2 009 MODELO DE RESPUESTAS Objetivos,
Más detallesReglas de l Hôpital Teorema del Valor Medio Generalizado. Tema 7
Tema 7 Reglas de l Hôpital Estudiamos en este tema el método práctico más efectivo para calcular ites de funciones en los que se presenta una indeterminación del tipo [0/0], o [ / ]. Este método se atribuye
Más detallesCONCEPTOS BASICOS DE LA TRANSFORMADA DE LAPLACE LA TRANSFORMADA DE LAPLACE
LA TRANSFORMADA DE LAPLACE Por cálculo integral sabemos que cuando vamos a determinar una integral impropia de la forma,su desarrollo se obtiene realizando un cambio de variable en el límite superior de
Más detallesNÚCLEOS DEFINIDOS POSITIVOS, REGULARIDAD, PERTURBACIONES Y APLICACIONES.
UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE CIENCIAS POSTGRADO EN MATEMÁTICA NÚCLEOS DEFINIDOS POSITIVOS, REGULARIDAD, PERTURBACIONES Y APLICACIONES. Autor: MSc. Arnaldo De La Barrera. Tutor: Dra. Marisela
Más detallesEspacios completos. 8.1 Sucesiones de Cauchy
Capítulo 8 Espacios completos 8.1 Sucesiones de Cauchy Definición 8.1.1 (Sucesión de Cauchy). Diremos que una sucesión (x n ) n=1 en un espacio métrico (X, d) es de Cauchy si para todo ε > 0 existe un
Más detallesLimites: Definición: lim
Limites: Definición: El concepto de límite en Matemáticas tiene el sentido de lugar hacia el que se dirige una función en un determinado punto o en el infinito. Por ejemplo: Consideremos la función yy
Más detallesELEMENTOS DE GEOMETRÍA. Eduardo P. Serrano
ELEMENTOS DE GEOMETRÍA Eduardo P. Serrano Este Apunte de Clase está dirigido a los alumnos de la materia Elementos de Cálculo Numérico para Biólogos. Tiene por objeto exponer algunos conceptos básicos
Más detalles1. Sucesiones y redes.
1. Sucesiones y redes. PRACTICO 7. REDES. Se ha visto que el concepto de sucesión no permite caracterizar algunas nociones topológicas, salvo en espacios métricos. Esto empieza con algunas definiciones
Más detallesDemostraciones a Teoremas de Límites
Demostraciones a Teoremas de Límites Programa de Bachillerato.Universidad de Chile. Otoño, 009 En esta sección solo daremos los fundamentos teóricos que nos permiten resolver los problemas que se nos plantean,
Más detallesClasificación de sistemas
Capítulo 2 Clasificación de sistemas 2.1 Clasificación de sistemas La comprensión de la definición de sistema y la clasificación de los diversos sistemas, nos dan indicaciones sobre cual es la herramienta
Más detallesALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO I LOGICA Y CONJUNTOS.
ALGEBRA y ALGEBRA LINEAL 520142 Primer Semestre CAPITULO I LOGICA Y CONJUNTOS. DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas Universidad de Concepción 1 La lógica es
Más detallesVariable Aleatoria Continua. Principales Distribuciones
Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables
Más detallesUna norma en un espacio lineal (o vectorial) X es una función. : X R con las siguientes propiedades: (a) x 0, para todo x X (no negatividad);
MATEMÁTICA APLICADA II Segundo cuatrimestre 20 Licenciatura en Física, Universidad Nacional de Rosario Espacios de Banach. Introducción Frecuentemente estamos interesados en qué tan grande. es una función.
Más detallesTeorema del valor medio
Práctica 6 - Parte 1 Teorema del valor medio El teorema del valor medio para derivadas (o teorema de Lagrange) es un resultado central en la teoría de funciones reales. Este teorema relaciona valores de
Más detalles4. Complementos sobre Problemas de Contorno para S.D.O. Lineales. 4. Complementos sobre Problemas de Contorno
para S.D.O. Lineales 4.1. Problemas de contorno para s.d.o. lineales. Teorema de alternativa 4.1. Problemas de contorno. Teorema de alternativa Fijemos A C 0 ([α, β]; L(R N )) y b C 0 ([α, β]; R N ), dos
Más detallesTema 4. MODELOS DE DISTRIBUCIONES DISCRETOS.
Estadística Tema 4 Curso /7 Tema 4. MODELOS DE DISTRIBUCIONES DISCRETOS. Objetivos Conceptos: Conocer los siguientes modelos discretos de probabilidad: uniforme, binomial, geométrico y Poisson. De cada
Más detallesEl método de súper y sub soluciones en el espacio de funciones casi periódicas.
El método de súper y sub soluciones en el espacio de funciones casi periódicas. Universidad de Buenos Aires - IMAS (CONICET) UMA - Bahía Blanca - 2016 Super y sub soluciones Problema periódico asociado
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad
Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 2.1. Variables aleatorias: funciones de distribución,
Más detallesVariables aleatorias unidimensionales
Estadística II Universidad de Salamanca Curso 2011/2012 Outline Variable aleatoria 1 Variable aleatoria 2 3 4 Variable aleatoria Definición Las variables aleatorias son funciones cuyos valores dependen
Más detalles