Curso Doctorado. Bienio 2008/10 Economía Financiera Cuantitativa y Actuarial. Modelización de Riesgo e Incertidumbre en Seguros y Auditoría Contable

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Curso Doctorado. Bienio 2008/10 Economía Financiera Cuantitativa y Actuarial. Modelización de Riesgo e Incertidumbre en Seguros y Auditoría Contable"

Transcripción

1 Curso Doctorado. Bienio 28/1 Economía Financiera Cuantitativa y Actuarial. Modelización de Riesgo e Incertidumbre en Seguros y Auditoría Contable Emilio Gómez Déniz 27 de abril de 29

2 1

3 Índice general Revistas, congresos y páginas web de interés 2 1. Introducción a la matemática actuarial 4 2. Distribuciones de probabilidad Distribuciones de tipo discreto Distribuciones de tipo continuo Elementos básicos de matemática actuarial Seguros generales. Aspectos estadísticos Modelo de riesgo colectivo Resultados generales Fórmula de recursión de Panjer Principios de cálculo de primas La teoría de la credibilidad. Distintas aproximaciones Modelo de Bühlmann de distribución libre Credibilidad e inferencia bayesiana Modelo de Jewell Sistema de tarificación Bonus Malus Reaseguros Reaseguro proporcional Excess loss Reaseguro stop loss Teoría de la ruina Introducción vii

4 7.2. El problema de la ruina Ruina con horizonte finito e infinito La probabilidad de supervivencia Coeficiente de ajuste y desigualdad de Lundberg Ejercicios propuestos 58 Apéndice 64 Bibliografía 66 viii

5 ix

6 Emilio Gómez-Déniz web: Tutorías: Despacho D Martes de 8:3 a 14:3 horas

7 Revistas, congresos y páginas web de interés Las principales aportaciones a la Estadística Actuarial están recogidas en las siguientes publicaciones: Insurance: Mathematics and Economics. Scandinavian Actuarial Journal. Astin Bulletin. ( Journal of Risk and Insurance. Geneva Papers. North American Actuarial Journal. Actuarial Research Clearing House. British Actuarial Journal Actas de los Congresos Internacionales de Actuarios. Casualty Actuarial Society. ( Los principales Congresos internacionales en la materia son: International Congress on Insurance:Mathematics and Economics. ( Actuarial Research Conference. Congresos ASTIN. 2

8 Algunas páginas web de interés son: Buhlmann.htm

9 Capítulo 1 Introducción a la matemática actuarial La matemática actuarial se ocupa del estudio cuantitativo de las operaciones de seguros y financieras en general, con el fin de optimizar las decisiones sobre las magnitudes que intervienen en ellas, teniendo en cuenta que dichas operaciones se llevan a cabo por un ente asegurador o financiero que desarrolla su actividad en un entorno económico social. Se ocupa esta disciplina, en su apartado de seguros, de: Cálculo de primas, reservas, etc. en los seguros vida. Tarificación y reservas técnicas en los seguros no vida (generales). Determinación de las magnitudes de estabilidad del ente asegurador (reaseguros, coaseguros) y el análisis de su solvencia (Teoría de la Ruina). etc. Las provisiones técnicas constituyen un cúmulo de ahorro disponible entre el cobro de las primas y el momento de hacer frente a la siniestralidad. Reaseguro y coaseguro. El asegurador debe seguir en sus operaciones la seguridad de no experimentar jamás una pérdida considerable y de soportar sólo una parte de las pérdidas totales, lo que se puede lograr mediante la división de los riesgos. Existe un primer recurso que el coaseguro y un segundo que es el reaseguro. Coaseguro. El riesgo se distribuye entre varios aseguradores, quedando cada uno de éstos vinculado directamente con el asegurado; generalmente, uno de ellos, 4

10 el de mayor partícipe, asume la dirección del negocio, el cual se entiende con el asegurado y con los otros coaseguradores. Reaseguro. El asegurador acepta un riesgo que sobrepasa de su capacidad, cediendo el exceso a otro asegurador (reasegurador); el vínculo jurídico entre estos dos es totalmente independiente del que media entre el asegurador y el asegurado; frente a éste el único responsable es el asegurador. El sector asegurador se diferencia de otros sectores en que, para acometer su actividad, el capital fijo que necesita es relativamente pequeño y su capital circulante se lo prestan los propios clientes a cuenta del producto que han de empezar a fabricar en ese momento (la seguridad), y que cobra por adelantado. De ahí que sus necesidades de financiación sean pequeñas. Por otro lado, el producto que se comercializa, la seguridad, se garantiza a todos los clientes, aunque la entrega sólo se efectúa a una parte de la clientela. El tiempo juega además a favor del asegurador, ya que el coste correspondiente (la siniestralidad) se reparte posponiéndose y dando lugar, entretanto, a un cúmulo de ahorro que forman las provisiones técnicas. Luego, desde un punto de vista financiero, el tomador de una póliza de seguros es el prestamista que proporciona el crédito al asegurador para que fabrique el producto (la seguridad), conviriténdose el asegurador en que un mero colocador de los fondos que no se consumen periódicamente de entre todos aquellos que le han sido prestados. 5

11 Capítulo 2 Distribuciones de probabilidad En este tema nos ocuparemos de las principales distribuciones de probabilidad de tipo discreto y continuo utilizadas en estadística actuarial Distribuciones de tipo discreto Este tipo de distribuciones se usan principalmente para modelizar el número de reclamaciones de una cartera de seguros. Estudiaremos diversas distribuciones que podemos clasificar como distribuciones clásicas, sistemas de distribuciones y distribuciones compuestas. Distribución binomial La función de probabilidad es: ( ) n Pr(X = x) = p x (1 p) n x, si x =, 1,..., n. x Los valores que toma la variable están comprendidos entre y n. La función generatriz de probabilidad es, La media y la varianza son: P X (s) = E(s X ) = (1 p + ps) n, E(X) = np, 6

12 Var(X) = np(1 p). Se observa que E(X) > Var(X) y por tanto la variable cumple la propiedad de sub-dispersión (media mayor que varianza). Distribución de Poisson La distribución de Poisson surge como límite de la distribución binomial cuando el número de ensayos es grande y la probabilidad de éxito pequeña. Se dice que una variable aleatoria X sigue una distribución de Poisson y se representa por X P(λ), si su función de densidad viene dada por: Pr(X = x) = e λ λ x, x =, 1,... x! siendo λ >. La función generatriz de X se obtiene del siguiente modo: P X (s) = E(s X ) = n= s n e λ λ n n! = e λ (λs) n n! n= = e λ(s 1). En consecuencia, la función característica toma la forma, ϕ X (t) = E(e itx ) = P X (e it ) = exp[λ(e it 1)]. Se verifica: E(X) = Var(X) = λ, La distribución de Poisson es reproductiva respecto del parámetro λ, es decir la suma de variables de Poisson independientes es de nuevo una variable aleatoria de Poisson. Teorema 2.1 Sean X i P(λ i ), i = 1, 2,..., n variables aleatorias independientes tipo Poisson. Entonces la variables aleatoria suma X 1 + X X n es nuevamente tipo Poisson, es decir, X 1 + X X n P(λ 1 + λ λ n ). 7

13 Demostración: Mediante funciones generatrices: P X1+...+X n (s) = P X1 (s) P Xn (s) = e (λ λ n )(s 1) y por tanto X X n P(λ λ n ). Distribución binomial negativa La variable aleatoria binomial negativa es una generalización de la distribución geométrica. Una variable aleatoria X sigue una distribución binomial negativa si la función de probabilidad viene dada por, ( ) k + r 1 Pr(X = k) = p r (1 p) k, k =, 1, 2,... k donde < p < 1, r >, y representaremos X BN (r, p). Una segunda parametrización muy utilizada es, ( k + r 1 Pr(X = k) = k ) ( β ) r ( ) k β, k =, 1, 2, β donde ahora β > y r >. En este último caso representaremos X BN (r, p = 1/(1 + β)). La función generatriz es: P X (s) = E(s X ) = La media y la varianza son respectivamente: p r, si s < 1/(1 p). [1 (1 p)s] r E(X) = Var(X) = r(1 p), p r(1 p) p 2. Si X 1 BN (r 1, p),..., X n BN (r n, p) son variables aleatorias independientes, entonces X X n es de nuevo binomial negativa con parámetros r r n y p. Distribución geométrica o de Pascal Se dice que una variable aleatoria X sigue una distribución geométrica o de Pascal si la función de probabilidad viene dada por, Pr(X = k) = p(1 p) k, k =, 1, 2,... 8

14 donde < p < 1, y representaremos X Ge(p). Una segunda parametrización muy utilizada es, Pr(X = k) = 1 ( ) k β, k =, 1, 2, β 1 + β donde ahora β >. En este caso X Ge(p = 1/(1 + β)). La distribución geométrica es un caso particular de la distribución binomial negativa, que se obtiene cuando r = 1. La función generatriz es: P X (s) = E(s X ) = s k p(1 p) k p =, 1 (1 p)s si s < 1/(1 p), k= y la función característica: Se deduce que: ϕ X (t) = E(e itx ) = P X (e it ) = E(X) = 1 p p, Var(X) = 1 p p 2. p 1 (1 p)e it. Distribución logarítmica Una variable aleatoria X sigue una distribución logarítmica si su función de probabilidad viene dada por, donde < θ < 1. 1 Pr(X = k) = log(1 θ) θk, k = 1, 2,... k La distribución logarítmica no tiene probabilidad en. Las probabilidades Pr(X = k) son siempre decrecientes en k. La función generatriz viene dada por, P X (s) = E(s X ) = mientras que la función característica es: log(1 θs) log(1 θ), ϕ X (t) = P X (e it ) = log(1 θeit ) log(1 θ). La media y la varianza de la distribución logarítmica son: E(X) = Var(X) = donde a = 1/ log(1 θ) y µ = E(X). aθ 1 θ, ( ) aθ(1 aθ) 1 (1 θ) 2 = µ 1 θ µ, 9

15 Distribuciones compuestas Las distribuciones compuestas son una clase de distribuciones muy amplia que permite modelizar una gran variedad de situaciones en estadística actuarial. Definición 2.1 Se dice que una variable aleatoria S se distribuye según una distribución compuesta, si la función generatriz de momentos se puede escribir como, donde P N y P X son dos funciones generatrices. P S (z) = P N [P X (z)], (2.1) A la variable aleatoria N con función generatriz P N ( ) se la llama distribución primaria mientras que a la variable aleatoria X con función generatriz P X ( ) se la llama distribución secundaria. Las distribuciones compuestas surgen de un modo natural como la distribución de la variable aleatoria, S N = X X N. La función de probabilidad de este tipo de variables se puede obtener como: g k = n= p n f n k, donde g k = Pr(S = k), p n = Pr(N = n), f n = Pr(X i = n) y f n, k =, 1, 2,... es la k convolución n-ésima de X i. Veamos un ejemplo de distribución compuesta. Ejemplo 2.1 Consideremos una distribución compuesta S cuya distribución primaria es de tipo Poisson N P(λ), y la distribución secundaria es de tipo logarítmico. Probar que la distribución compuesta S es una binomial negativa BN (r, p) donde r = λ/ ln(1 θ) y p = 1 θ. Solución: Puesto que P N (z) = exp{λ(z 1)}, usando (2.1) tenemos que, P S (z) = exp{λ[p X (z) 1]} { [ ]} ln(1 θz) = exp λ ln(1 θ) 1 { ( )} λ 1 θz = exp ln(1 θ) ln 1 θ [ 1 θ = 1 (1 (1 θ))z ] λ/ ln(1 θ) que coincide con la función generatriz de una binomial negativa con los parámetros antes señalados. 1

16 Los momentos de una distribución compuesta se obtienen fácilmente por medio de la función generatriz, como probaremos más adelante. La media y la varianza vienen dadas por: E(S) = E(N)E(X), Var(S) = E(N)Var(X) + E 2 (X)Var(N) Distribuciones de tipo continuo Continuando con los modelos de distribuciones de probabilidad, pasamos al estudio de las principales distribuciones de tipo continuo. Los actuarios usan las distribuciones de tipo continuo para modelizar diversos fenómenos aleatorios, como por ejemplo la distribución de un conjunto de datos de pérdidas o la distribución de supervivencia de un individuo. Distribución normal Se dice que una variable aleatoria X sigue una distribución normal de parámetros µ y σ 2, y se escribe X N (µ, σ 2 ), si su función de densidad viene dada por: { f(x) = 1 σ 2π exp 1 ( ) } 2 x µ, < x <, (2.2) 2 σ donde µ y σ 2 son constantes que representan respectivamente la media y la varianza. La función de densidad (2.2) es simétrica respecto de µ y de tipo campaniforme (de ahí el nombre de campana de Gauss), lo que hace que µ sea además la mediana y la moda de la distribución. Se denomina distribución normal tipificada o estandarizada a una distribución normal con media y desviación típica 1. La distribución normal tipificada se representa por Z N (, 1), y su función de densidad es: φ(z) = 1 2π e z2 /2, < z <. La importancia de la normal tipificada radica en que cualquier distribución normal se puede reducir a una tipificada. 11

17 Distribución log-normal La distribución log-normal es uno de los modelos más utilizados para ajustar datos relativos al coste de un siniestro. Se dice que una variable aleatoria X sigue una distribución log-normal si su logaritmo es normal, es decir si: log(x) N (µ, σ 2 ). Si X sigue una distribución log-normal se representa por X LN (µ, σ 2 ). Las funciones de distribución y de densidad de una distribución log-normal X LN (µ, σ 2 ) vienen dadas, respectivamente, por: ( ) log x µ F (x) = Φ, x >, σ { 1 f(x) = xσ 2π exp 1 ( ) } 2 log x µ, x >. 2 σ Los momentos de una distribución log-normal vienen dados por: E(X k ) = exp (kµ + k2 σ 2 ), k = 1, 2,... 2 La media y la varianza son, respectivamente: ) E(X) = exp (µ + σ2, 2 Var(X) = exp(2µ + σ 2 )[exp(σ 2 ) 1]. Distribución gamma La distribución gamma es una de las distribuciones más utilizadas en estadística actuarial cuando se dispone de un conjunto de datos positivos, unimodales y con asimetría positiva. Una variable aleatoria X sigue una distribución gamma de parámetros a y b, y se representa por X G(a, b), si su función de densidad viene dada por: f(x) = ba Γ(a) xa 1 e bx si x > donde a, b son números reales positivos. Si a = 1 se obtiene la distribución exponencial. Si X G(α, σ), la función generatriz de momentos es, ( ) a b M X (t) = E(e tx ) =, b > t. b + t 12

18 Los momentos de la distribución gamma son, E(X r ) = de donde se deducen la media y la varianza, Γ(a + r) b r Γ(a), r > a, E(X) = a b, Var(X) = a b 2. La moda de la distribución gamma es a 1 b, siempre que a 1. Una propiedad importante de la distribución binomial negativa es que puede obtenerse como una mezcla de una distribución de Poisson, suponiendo que la media no se mantiene constante. Supongamos que el número de accidentes N de una cartera de clientes sigue una distribución de Poisson N con media λ. Supongamos que la media λ muestra la variabilidad de la cartera representada con una función de densidad continua de tipo gamma, de modo que podemos establecer el modelo, N λ P(λ), λ G(a, b). Entonces, la distribución incondicional N del número de accidentes es de tipo binomial negativa, de modo que, N BN (α, p = b/(b + 1)). En efecto, se trata de una mezcla de distribuciones. En este caso f λ (λ) representa la función de densidad de una variable aleatoria gamma. La marginal de N es: Pr(N = k) = = = = b a k!γ(a) f N λ (k)f λ (λ)dλ e λ λ k k! b a Γ(a) λa 1 e bλ dλ λ a+k 1 e (b+1)λ dλ b a ( Γ(a + k) a + k 1 k!γ(a) (b + 1) a+k = k ) ( b b + 1 ) a ( 1 ) k b

19 Distribución beta La distribución beta se utiliza en estadística para modelizar variables que representan proporciones. Una variable aleatoria X sigue una distribución beta de primera especie si su función de densidad viene dada por: f(x) = 1 B(p, q) xp 1 (1 x) q 1, < x < 1, donde p, q > y B(p, q) representa la función beta. Representaremos X Be(p, q). La función beta viene definida por, B(x, y) = 1 t x 1 (1 t) y 1 dt = Γ(x)Γ(y) Γ(x + y), donde x, y >, siendo Γ( ) la función gamma. Los dos parámetros de los que depende la función de densidad cubren un gran abanico de formas funcionales, lo que hace que la variable sea enormemente flexible para el ajuste de datos. Los momentos de la distribución beta son: De donde: E(X r ) = Γ(p + r)γ(p + q) Γ(p + q + r)γ(p). E(X) = Var(X) = Γ(p + 1)Γ(p + q) Γ(p + q + 1)Γ(p) = pγ(p)γ(p + q) (p + q)γ(p + q)γ(p) = p p + q, pq (p + q) 2 (p + q + 1). Distribución inversa Gaussiana La distribución inversa Gaussiana o distribución de Wald en una de las distribuciones más utilizadas para ajustar datos relativos al coste de los siniestros. Una variable aleatoria X sigue una distribución inversa Gaussiana con parámetros µ y λ y representaremos X IG(µ, λ), si su función de densidad viene dada por, { λ f(x) = 2πx 3 exp λ } 2µ 2 (x µ)2, x >, (2.3) x donde λ, µ >. Se trata de una distribución asimétrica positiva y unimodal. La función de distribución puede expresarse en términos de la función de distribución Φ( ) de una normal estándar y viene dada por, ( ( ) ) ( λ x λ F (x) = Φ x µ 1 + e 2λ/µ Φ x ( ) ) x µ + 1, x >. 14

20 La distribución inversa Gaussiana es un caso particular de una distribución más general denominada generalizada inversa Gaussiana, cuya función de densidad viene dada por: f(x) = { 1 2K ν (µ/λ) µ ν x ν 1 exp x } 2λ µ2, x >, (2.4) 2λx donde ν IR, µ, λ > y donde K ν (u) representa la función modificada de Bessel de tercera clase con índice ν, definida por: K ν (u) = 1 2 x ν 1 exp { u ( x + 1 )} dx. 2 x Si una variable aleatoria X sigue una distribución generalizada inversa Gaussiana escribiremos X GIG(ν, µ, λ). Utilizando las propiedades: K ν (u) = K ν (u), π K 1/2 (u) = 2u e u, es fácil probar que (2.3) se obtiene de (2.4) sin más que hacer ν = 1/2. La distribución inversa Gaussiana posee momentos positivos y negativos de todos los órdenes. La función generatriz de momentos viene dada por, { ( )} λ M X (t) = exp 1 1 2µ2 t, (2.5) µ λ y la función característica, ϕ X (t) = E(e itx ) = M X (it) = exp Usando (2.5) se prueba que la media y la varianza son, { ( )} λ 1 1 2iµ2 t. µ λ E(X) = µ, Var(X) = µ 3 /λ. La moda de (2.3) es, µ ( 4λ2 + 9µ 2λ 2 3µ). 15

21 Capítulo 3 Elementos básicos de matemática actuarial Los seguros se dividen básicamente en vida y no vida, denominados éstos últimos también seguros generales. Son este tipo de seguros de los que nos ocuparemos en este curso Seguros generales. Aspectos estadísticos Las principales características de los segurso generales son: 1. Son operaciones a corto plazo. La duración generalmente es anual, renovable tácitamente, por lo que el tipo de interés no juega un papel tan importante como en los seguros de vida. 2. Existen muchos factores que influyen en el acaecimiento del hecho que dan lugar a una gran complejidad en los problemas de tarificación. Por ejemplo, en el seguro del automóvil existen como factores de riesgo la categoría y clase del vehículo, zona de circulación, uso al que se destina, datos del conductor, etc. 3. Las indemnizaciones están en función de la cuantía del daño, del número de reclamaciones, o una función de ambas cantidades. Estas, a su vez, vienen dadas por variables aleatorias. 4. Se presentan problemas de infraseguro y sobreseguro cuando no coincide la suma asegurada con el valor del interés asegurado. 16

22 5. Las primas cubren el riesgo del período correspondiente y no llevan la componente de ahorro como en los seguros de vida. 6. Surgen problemas de estabilidad ya que las fluctuaciones en torno a los valores medios (las primas) son mayores que en los seguros de vida, ya que aquí las reservas matemáticas juegan un importante papel estabilizador. Uno de los conceptos fundamentales en estadística actuarial y que está ligado a la estadística bayesiana es el de distribuciones y medias condicionadas. Si X y Θ son variables aleatorias, la media condicional de X dada Θ se denota por E [X Θ], que es una función de la variable aleatoria Θ, y por lo tanto es una v.a. por sí misma. Si la media condicional E [X Θ] y la distribución marginal de Θ se conocen, la esperanza incondicional de X se obtiene como E[X] = E X [E Θ (X Θ)], que es una regla iterativa para esperanzas y que puede considerarse como una versión de la ley de probabilidad total. Ejemplo 3.1 Se lanza un dado y entonces se lanza una moneda tantas veces como puntos se obtuvieron en el dado. Sea X la variable aleatoria que nos da los puntos obtenidos en el dado e Y la variable aleatoria que nos da el número de veces que se obtiene cara al lanzar la moneda. Se pide calcular la esperanza incondicional de Y, E[Y ]. Solución: E[Y ] = E X {E Y [Y X]}, luego: La distribución condicional de Y dada X es binomial de parámetros X y 1/2, E[Y X] = 1 2 X. [ ] 1 E[Y ] = E {E [Y X]} = E 2 X = 1 2 E[X] = i 1 6 = 7 4. i=1 Teorema 3.1 Sean Θ, X v.a., entonces: V ar (X) = E Θ [V ar X (X θ)] + V ar Θ [E X (X θ)] 17

23 Demostración: Sabemos que E(X) = E Θ [E X (X θ)]. Luego E(X 2 ) = E θ [ EX (X 2 θ) ] = E Θ [ V ar(x θ) + E 2 X (X θ) ] = E Θ [V (X θ)] + E Θ [ E 2 X (X θ) ]. Ahora, V ar(x) = E(X 2 ) E 2 (X) = E Θ [V ar X (X θ)] + E Θ [ E 2 X (X θ) ] E 2 (X), y puesto que E 2 (X) = E 2 Θ [E X(X θ)], queda probado el resultado. Ejemplo 3.2 Si X sigue una distribución de Poisson de parámetro θ y θ se distribuye según una ley gamma de parámetros a > y b >, se pide calcular E(X) y Var(X). Solución: Por otro lado tenemos: E(X) = E [E(X θ)] = E(θ) = a b. V ar (X) = E θ [V ar X (X θ)] + V ar θ [E X (X θ)] = E(θ) + Var(θ) = a b + a a(b + 1) = b2 b Modelo de riesgo colectivo Definición 3.1 Un modelo de riesgo colectivo representa la siniestralidad total como la suma S de un número aleatorio N de cantidades X 1,..., X N, i.e. S = N i=1 X i, donde se asume que X i son i.i.d. e independientes de N. Suele denominárseles distribución primaria y distribución secundaria a las distribuciones del número de siniestros y reclamaciones, respectivamente. La variable aleatoria S = N i=1 X i tiene como función de distribución: F (s) = Pr (S s) = = p n F n (s), n= p n Pr (S s N = n) n= 18

24 donde F (s) = Pr (S s) es la función de distribución de las X j s, p n = Pr(N = n) y F n (s) es la convolución n ésima de la función de distribución de X. Por supuesto que se verifica que la función de densidad de probabilidad de S viene dada por f(s) = p n f n (s), n= donde f(x) es la función de densidad de probabilidad de X. Si N sigue la distribución de Poisson el modelo obtenido de denomina modelo de Poisson compuesto. Ejemplo 3.3 Sean N la variable aleatoria asociada al número de reclamaciones con distribución de probabilidad P N (θ) = θ n e θ /n!, n =, 1, 2,... y X i variables aleatorias asociadas a la cuantía del i ésimo siniestro, i.i.d. con función de densidad f(x λ) = λe λx, λ. Suponiendo N independiente de X i, calcular la función de densidad de probabilidad de la variable aleatoria Solución: f f(s) = s S = f(s x)f(x)dx = f (f f)(s) = s s n X i. i=1 λe λ(s x) λe λx dx = λ 2 e λs s. λe λ(s x) λ 2 e λx xdx = s2 2 λ3 e λs. s n 1 Por inducción, supongamos cierta que f n (s) = λ n e λs (n 1)!, entonces f ( )(n+1) (x) = f (f n )(s) = s xn 1 λe λ(s x) λ n e λx (n 1)! dx = λ n+1 λs sn e n!. Luego, por inducción matemática, tenemos f(s θ, λ) = n λ n s n 1 e λs (n 1)! e θ θ n, n! mientras que f() = e θ. 19

25 La función de densidad anterior puede reescribirse como: f S (x) = e (θ+λx) λθ/xi 1 (2 ) λxθ, x >, donde: I ν (x) = k= es la función modificada de Bessel de clase ν. (x/2) 2k+ν, x IR, ν IR k!γ(ν + k + 1) Ejemplo 3.4 Con los mismos datos del ejemplo anterior calcular F S (x) = Pr (X > x) para valores de x =,1,,2,..., 1, tomando θ = λ = 1. Solución: El resultado puede obtenerse a partir de la expresión: ( x ) Pr (X > x) = 1 f S () + f S (t)dt, que proporciona los valores que aparecen en la tabla 3.1. La gráfica de la función de densidad aparece en la figura 3.1 Cuadro 3.1: Probabilidad de la cola. Modelo Poisson compuesto x 1 F S (x),1,596242,2,32482,3,1712,4,87711,5,44498,6,217431,7,15772,8,5815,9, ,, Ejemplo 3.5 Calcular E (S θ, λ). 2

26 .4.2 f S (x) 5 1 x Figura 3.1: Función de densidad del modelo de Poisson compuesto Solución: E (S θ, λ) = = S = n = n S sf(s θ)ds s λ n s n 1 e λs e θ θ n ds (n 1)! n! n λ n e θ θ n x n e λx dx (n 1)!n! X λ n e θ θ n Γ(n + 1) (n 1)!n! λ n+1 = 1 λ θ = E (X 1 λ) E (N θ) Resultados generales Teorema 3.2 La función generatriz de momentos y la función generatriz de probabilidad de S viene dada por M S (t) = M N (log M X (t)), (3.1) P S (z) = P N (P X (z)), (3.2) 21

27 respectivamente, siendo M N (t) la función generatriz de momentos de la variable aleatoria N, M X (t) la función generatriz de momentos de la variable aleatoria X, P N (z) la función generatriz de probabilidades de N y P X (z) la función generatriz de probabilidades de X. Demostración: En efecto, tenemos que: Pero M S (t) = E ( e ts) = E [ E ( e ts N )]. E ( e ts N ) ( ) = E e t N X i i=1 = N E ( e txi) = [M X (t)] N, i=1 donde se ha tenido en cuenta que X i son i.i.d. Entonces: { } { } M S (t) = E [M X (t)] N = E e log[m X (t)] N = E [e ] N log M X (t) Por otro lado tenemos: = M N (log M X (t)). P S (z) = E (Z s ) = = = n= n E n= j=1 Z X j ( ) E z Xi N Pr (N = n) Pr (N = n) Pr (N = n) [P X (z)] n = E [ P X (z) N] = P N (P X (z)), n= donde se ha asumido que,dado n X 1, X 2,..., X n son independientes. Corolario 3.1 La esperanza y la varianza de S vienen dadas por respectivamente. Demostración: Puesto que tenemos que: E(S) = E(N)E(X), (3.3) V ar(s) = E(N)V (X) + E 2 (X)V ar(n), (3.4) M S(t) = M N (log M X (t)) M X (t) M X (t), M S() = M N (log M X ()) M X () M X () = M N ()M X() = E(N)E(X). 22

28 Por otro lado tenemos: [ ] M M S (t) = M N 2 (log M X (t)) X (t) M X (t) y por tanto + M N (log M X (t)) M X M X(t) M X (t)2 M X (t) 2, M S () = M N()M X() + M N() [ M X() M X() 2]. Luego, E(S 2 ) = E(N 2 )E 2 (X) + E(N)V ar(n), y en definitiva: V ar(s) = E(S 2 ) E 2 (S) = E(N 2 )E 2 (X) + E(N)V ar(x) E 2 (N)E 2 (X) = E(N)V (X) + E 2 (X)V ar(n). Ejemplo 3.6 Sean las variables aleatorias N, con distribución de Poisson de parámetro 5 y X i, i.i.d. e independientes de N con distribución normal de parámetros 3 y 7. Calcular E(S) y V ar(s). Solución: E(S) = E(N)E(X 1 ) = 5 3 = 15. V ar(s) = = Fórmula de recursión de Panjer La clase de distribuciones (a, b, ) Definición 3.2 Una distribución de masa de probabilidad {p n } n= pertenece a la clase (a, b, ) si p n = a + b, n = 1, 2,..., (3.5) p n 1 n siendo a y b constantes. Puede probarse que las únicas distribuciones de probabilidad que pertenecen a dicha clase son la Poisson, binomial, binomial negativa y geométrica. Ejemplo 3.7 Demostrar que las distribuciones de Poisson y binomial pertenecen a la clase (a, b, ) dando los valores de las constantes a y b en cada caso. 23

29 Solución: Para la distribución de Poisson de parámetros θ se tiene que: luego en este caso a = y b = θ. p n p n 1 = θ n, Para la distribución binomial con parámetros N y p resulta: p n = p ( 1 + N + 1 ), p n 1 1 p n y por tanto ahora a = p/(1 p), b = p(n + 1)/(1 p). Obsérvese ahora que (3.5) puede ser rescrita de la siguiente manera: n p n p n 1 = an + b, n = 1, 2,..., (3.6) lo que indica que np n /p n 1 aparece como una función lineal de n con pendiente a. Este valor es cero para la distribución de Poisson, negativo para la binomial y positivo para la binomial negativa y geométrica. Luego a partir de la distribución empírica de frecuencia de reclamaciones, un simple gráfico de np n /p n 1 podría indicarnos cuál de las tres distribuciones es aconsejable para ajustar la distribución de frecuencias observada. Ejemplo 3.8 Consideremos los datos de reclamaciones que aparecen en la tabla 3.2. Calcular los valores de np n /p n 1 y decidir qué distribución entre la Poisson, binomial y binomial negativa es aconsejable elegir para ajustar esos datos. Solución: Un gráfico de np n /p n 1 frente a n nos indicará qué distribución es adecuada para modelar estos datos. En este caso, puesto que la pendiente es positiva parece que la binomial negativa es la indicada. Esto se refuerza por el hecho de que los datos observados son sobredispersos. La fórmula de recursión de Panjer, uno de los resultados más importantes en estadística actuarial, permite calcular de manera exacta y recursiva la distribución de siniestralidad agregada. Esta distribución juega un papel destacado en el modelo colectivo compuesto y en teoría de la ruina. Para su obtención se requiere utilizar la siguiente proposición. 24

30 Número de reclamaciones Cuadro 3.2: Frecuencias observadas Frecuencias Absolutas Observadas n p n p n Más de 4 Total Proposición 3.1 x x f(y)f n (x y)dy = f (n+1) (x), n = 1, 2,... (3.7) yf(y)f n (x y)dy = x n + 1 f (n+1) (x), n = 1, 2,... (3.8) Teorema 3.3 (Fórmula de recursión de Panjer: versión continua) Sea n=1 g(x) = p nf n (x), x >, p, x =, donde f(x) es la función de densidad continua asociada a la cuantía y p n la distribución de masa de probabilidad perteneciente a la clase (a, b, ) asociada al número de siniestros, entonces para cualquier función de densidad continua f(x) se cumple la siguiente recursión: g(s) = p 1 f(s) + s Demostración: En efecto, se tiene que: g(s) = n=1 (a + by/s) f(y)g(s y)dy, s >. (3.9) p n f n (s) = p 1 f(s) + p n f n (s) = p 1 f(s) + n=1 n=2 p n+1 f (n+1) (s) n=1 Utilizando ahora (3.5) tenemos: ( g(s) = p 1 f(s) + p n a + b ) f (n+1) (s) n

31 = p 1 f(s) + p n [af (n+1) (s) + b ] s f (n+1) s (s). n + 1 n=1 Utilizando ahora (3.7) se tiene: g(s) = p 1 f(s) + y utilizando (3.8) se obtiene: n=1 g(s) = p 1 f(s) + = p 1 f(s) + = p 1 f(s) + p n [ af (n+1) (s) + b s s ] yf(y)f n (s y)dy, s p n (a + by/s) f(y)f n (s y)dy n=1 s (a + by/s) f(y) p n f n (s y)dy n=1 (a + bysx) f(y)g(s y)dy Obsérvese ahora que si X i es discreta y positiva entonces (3.9) adopta la forma: g(s) = s k=1 ( a + bk ) f(k)g(s k), s = 1, 2,..., (3.1) s que se obtiene intercambiando en (3.9) el símbolo integral por el de suma. Ejemplo 3.9 Obtener la fórmula de recursión de Panjer para el caso en que X i sea continua y N siga la distributión de Poisson y binomial. Solución: Utilizando (3.9) es fácil obtener después de unos pocos cálculos que: g(s) = θe θ f(s) + θ s g(s) = p 1 p s { N(1 p) N f(s) + yf(y)g(s y)dy, s } [(N + 1)y/x 1] f(y)g(s y)dy. para los modelos de Poisson y binomial, respectivamente Principios de cálculo de primas La prima es el precio para el seguro (o reaseguro) vendido por la compañía aseguradora. De forma reducida, una prima mínima técnica está compuesta de los siguientes elementos (Capítulo 4, sección 2, artículo 51 del Reglamento de la Ley de Seguros): Prima pura de riesgo. 26

32 Sobreprima de seguridad. Costo adicional para el beneficio. En resumen, la prima o precio del servicio es el coste que para la empresa puede suponer las reclamaciones más el margen de beneficio. En nuestro trabajo nos centraremos siempre en el primer y segundo elemento y nunca haremos mención al tercero. El precio correcto, que es llamado rating, es vital, pues si es demasiado bajo representa una pérdida para la compañía y si es demasiado alto se pierde competitividad frente a otras. Por tanto una de las labores del actuario consiste en encontrar métodos de cálculo de primas, generalmente llamados en la literatura actuarial principios de cálculo de primas. Para un actuario un riesgo es lo mismo que una variable aleatoria; si denotamos por X la variable aleatoria (X varía en el espacio paramétrico X ) tamaño de siniestro (número medio de reclamaciones o indemnización media), un procedimiento de cálculo de prima se define como sigue. Definición 3.3 (de principio de cálculo de prima) Un principio de cálculo de prima es una función H que asigna a un riesgo X un número real P = H(X), que se denomina la prima asignada al riesgo X. La interpretación práctica de esta definición es la siguiente: para algún riesgo X el asegurador está dispuesto a recibir P como contrapartida al pago aleatorio de X. Por tanto la ganancia del asegurador es P X, y es una variable aleatoria. Ahora sea L : IR 2 IR una función de pérdida que atribuye a algún (x, P ) R 2 la pérdida sostenida por un decisor que toma la acción P y se encuentra con el resultado x de algún experimento aleatorio. A partir de aquí se define la prima de riesgo o verdadera prima individual de la siguiente manera. Definición 3.4 (de prima de riesgo o verdadera prima individual ) Dados un riesgo X con función de distribución F (x) y una función de pérdida L : IR 2 IR la prima de riesgo es el valor de P que minimiza la pérdida esperada L(x, P ) df (x) = E [L(X, P )], X 27

33 donde x es el resultado del experimento aleatorio X y P la prima cobrada por tomar x. En la mayoría de las ocasiones el mínimo se determina diferenciando directamente la expresión anterior e igualando a cero. Esta metodología de cálculo de prima mediante funciones de pérdidas fue propuesta por Heiilmann (1989), obteniendo de esta manera los principios de cálculo de primas que ya se utilizaban y otros nuevos. En realidad resulta indiferente trabajar con esta metodología que hacerlo con funciones de utilidad aunque es más cómoda la primera; en el primer caso el decisor intenta minimizar la pérdida esperada y en el segundo maximizar la utilidad esperada. Las funciones de pérdidas que conducen a los principios de cálculo de primas más utilizados en la literatura actuarial son: 1. Si L(x, P ) = (x P ) 2, entonces: P = E F [X], constituye el principio de prima neta o de equivalencia. 2. Si L(x, P ) = 1 α (eαx e αp ) 2 con α >, entonces: P = 1 α ln E [ F e αx ], constituye el principio de utilidad exponencial Observemos que este principio de cálculo de prima viene dado en términos del logaritmo de la función generatriz de momentos de la variable aleatoria X. En Teoría de la Decisión a α se le denomina constante de aversión al riesgo (también llamada medida de Arrow-Pratt) asociada al decisor que toma la función de pérdida L(x, P ), en el sentido de que cuanto mayor es α más adverso al riesgo será el decisor (en nuestro caso la compañía aseguradora). 3. Si L(x, P ) = e αx (x P ) 2 con α >, entonces: P = E [ ] F Xe αx E F [e αx, ] constituye el principio Esscher, α tiene la misma interpretación que en el caso anterior. Observemos que ahora P se obtiene como el cociente entre la derivada primera de la función generatriz de momentos y la propia función generatriz, en el punto α. 28

34 4. Si L(x, P ) = x(x P ) 2, entonces: P = E [ ] F X 2 E F [X] constituye el principio de varianza. = E F [X] + Var F [X] E F [X], La ventaja de este principio es que no sólo estima la siniestralidad media del riesgo, sino que nos proporciona también el recargo de seguridad que debe llevar la prima pura para atender a las desviaciones aleatorias de la siniestralidad. En muchos textos la expresión de P se presenta como P = E[X] + δ Var[X], con δ > un parámetro, y se dice entonces que la sobreprima de seguridad es proporcional a la varianza. Observemos que estos principios pueden desarrollarse siempre que la distribución del riesgo, F (x) sea conocida. Supongamos ahora que la distribución F (x) está especificada bajo un parámetro desconocido θ, entonces F (x θ), y la prima de riesgo, puesto que se desconoce, será una función del parámtreo, llamémosla P (θ). Supongamos que θ varíe en un espacio paramétrico Θ y que la distribución a priori sea π(θ), denominada usualmente en el escenario actuarial función estructura; en este escenario la prima colectiva o a priori se define de la siguiente forma. Definición 3.5 (de prima colectiva o a priori) Dados un riesgo X con distribución F (x θ), siendo θ un parámetro desconocido con distribución a priori π(θ), y una función de pérdida L : IR 2 IR, la prima a priori es el valor P π que minimiza la pérdida esperada L(P (θ), P π )π(θ)dθ, θ con P (θ) la prima de riesgo definida anteriormente. La prima a priori tal y como está definida arriba representa la mejor decisión que estima la prima de riesgo (obviamente desconocida). Observemos que para calcularla se precisará que el actuario pueda definir una distribución de probabilidad (distribución a priori) para el valor del parámetro desconocido θ, para lo que será fundamental la experiencia que para el actuario le supone lo acontecido en los períodos precedentes, o bien lo acontecido en otros contratos similares. 29

35 Para finalizar con este apartado expondremos el caso en el que la distribución de X está especificada bajo un parámetro desconocido, y donde la tarificación incorpora experiencia de siniestralidad individual. En este caso el análisis bayesiano nos permitirá combinar la información inicial o a priori que se tiene sobre el parámetro θ con la información muestral para obtener la distribución a posteriori. Si π(θ) es la densidad a priori (que refleja las creencias sobre θ antes de obtener la información muestral), y x es la observación muestral de una población cuya distribución depende de θ, la verosimilitud del dato observado la denotaremos por f(x θ), y el teorema de Bayes nos permitirá obtener la distribución a posteriori π(θ x) de la siguiente manera: π(θ x) = f(x θ)π(θ) Θ f(x θ)π(θ), f(x θ)π(θ)dθ es decir como el cociente entre la distribución conjunta f(x θ) π(θ) y la distribución predictiva p(x π) = θ f(x θ)π(θ)d(θ). A veces, y por conveniencia matemática, el análisis bayesiano considera la clase de distribuciones a priori conjugadas π(θ) para una verosimilitud dado para que la distribución a posteriori π(θ x) tenga la misma forma que la distribución a priori. Una vez observado los datos la información a priori se convierte en información a posteriori vía teorema de Bayes. Esto permite construir la prima bayes o a posteriori que se define de la siguiente manera. Definición 3.6 (de prima bayes o a posteriori) Dados un riesgo X con distribución F (x θ), siendo θ un parámetro desconocido con distribución a priori π(θ), una función de pérdida L : IR 2 IR, y una muestra x, la prima bayes es el valor P π (x) que minimiza Θ L(P (θ), P π (x))π(θ x)dθ, siendo π(θ x) la distribución a posteriori de θ dada la muestra y P (θ) la prima de riesgo definida anteriormente, es el valor que minimiza L(x, P )f(x θ)dx. X Por tanto, si nos restringimos a los cuatro casos antes expuestos: 1. Si L(P (θ), P π (x)) = (P (θ) P π (x)) 2, entonces P (θ) = E F [X θ], y se deduce que, [ P π (x) = θ X ] xf(x θ)dx π(θ x)dθ = E π [E F [X θ]]. 3

36 2. Si L(P (θ), P π (x)) = 1 α (eαp (θ) e αp π (x) ) 2 con α >, entonces, P (θ) = 1 α ln E [ F e αx θ ], y se deduce que, P π (x) = 1 α ln θ [ X ] e αx f(x θ)dx π(θ x)dθ = 1 α ln [E π [E F [e αx θ]]]. 3. Si L(P (θ), P π (x)) = e αp (P P π (x)) 2, α >, entonces, xe αx f(x θ)dx X P = = E [ F Xe αx θ ] e αx E f(x θ)dx F [e αx, θ] y se deduce que, P π (x) = θ X P (θ)e αp (θ) π(θ x)dθ e αp (θ) π(θ x)dθ θ = E [ ] π P (θ) e αp (θ) [ E ]. π e αp (θ) 4. Si L(P (θ), P π (x)) = P (θ)(p (θ) P π (x)) 2, entonces, x 2 f(x θ)dx X P (θ) = = E [ F X 2 θ ] E xf(x θ)dx F [X θ], y se deduce que, X P (θ) 2 π(θ x)dθ P π θ (x) = P (θ)π(θ x)dθ θ = E [ ] π P (θ) 2 E π [P (θ)]. Ejemplo 3.1 Dado el riesgo X con función de densidad f(x), obtener la prima de riesgo, colectiva y Bayes para cada una de las siguientes funciones de pérdidas: ( L (x, P) = (x P) 2, L(x, P) = 1 α e αx e αp) 2, α >, L(x, P) = e αx (x P) 2, α >, L(x, P) = x (x P) 2. Solución: Aparecen en la tabla

37 Cuadro 3.3: Principios en su versión riesgo, colectiva y bayes Riesgo Colectiva Bayes Riesgo Colectiva Bayes Θ Θ [ [ X Θ Prima neta Exponencial 1 xf(x θ)dx α ln e αx f(x θ)dx X X X ] [ ] 1 xf(x θ)dx π(θ)dθ α ln e αx f(x θ)dx π(θ)dθ Θ X ] [ ] 1 xf(x θ)dx π(θ x)dθ α ln e αx f(x θ)dx π(θ x)dθ Θ X X Esscher xe αx f(x θ)dx e αx f(x θ)dx P (θ)e αp (θ) π(θ)dθ e αp (θ) π(θ)dθ Θ P (θ)e αp (θ) π(θ x)dθ e αp (θ) π(θ x)dθ Θ Θ X Varianza x 2 f(x θ)dx X xf(x θ)dx Θ Θ Θ X Θ P (θ) 2 π(θ)dθ P (θ)π(θ)dθ P (θ) 2 π(θ x)dθ P (θ)π(θ x)dθ 32

38 Capítulo 4 La teoría de la credibilidad. Distintas aproximaciones El problema de la teoría de la credibilidad consiste en determinar las ponderaciones que afectan a la experiencia de siniestralidad de una póliza respecto a la experiencia de un colectivo a la que pertenezca dicha póliza. La cuestión básica es determinar hasta qué punto es creíble la experiencia observada de un asegurado individual en relación con la prima que debe satisfacer. Consideremos la cartera de seguros Pólizas o asegurados j... k 1 x 11 x x j1... x k1 2 x 12 x x j2... x k t x 1t x 2t... x jt... x kt θ 1 θ 2... θ j... θ k La solución se obtiene aplicando la fórmula de credibilidad, que viene dada por: P j = (1 Z(t)) P + Z(t) P j, donde: P j : Prima a aplicar a los asegurados al riesgo j. 33

39 P : Prima a aplicar a un colectivo al que pertenece el asegurado j. P j : Prima obtenida en base a la experiencia del asegurado j. Z(t) : Factor de credibilidad que verifica lím t Z(t) = 1, siendo t el número de expuestos al riesgo j o el período de observación de la póliza j. Si Z(t) = 1 la experiencia del asegurado es creíble al 1 %. Si Z(t) =, P j = P, la prima del asegurado j coincide con la del colectivo al que pertenece dicha póliza. La fórmula de credibilidad puede interpretarse también de la siguiente manera: puede considerarse a P como la información a priori. P j la nueva información obtenida mediante la observación de la siniestralidad del riesgo j y P j el resultado de combinar la información a priori con la información adquirida; es decir, Prima (a posteriori) = (1 Z(t)) Prima a priori + Z(t)Experiencia observada Luego, visto de esta manera la teoría de la credibilidad es un proceso bayesiano, donde se da entrada a la información a priori junto a la información muestral, para obtener un estimador revisado de la prima. Podemos definir la teoría de la credibilidad como el mecanismo que permite el ajuste sistemático de las primas de seguros a medida que se obtiene la experiencia de siniestralidad. Una de las principales aplicaciones de dicha teoría se presenta en el seguro de automóviles, en el que la prima inicial se va modelando sucesivamente a medida que se incorpora la información de la siniestralidad. Son los denominados sistemas de tarificación bonus malus. Se parte de un nivel k neutro, de modo que para niveles superiores a k el asegurado entra en la escala malus y para niveles inferiores a k en la escala bonus Modelo de Bühlmann de distribución libre El objetivo del modelo de Bühlmann consiste en calcular la mejor prima lineal H (µ(θ) X 1, X 2,..., X t ), dependiente de los datos observados, mediante el procedimiento de los mínimos cuadrados. Notación previa: 34

40 µ(θ j ) = E (X s θ), s = 1, t: Prima de riesgo individual. Esperanza de siniestralidad para la póliza s-ésima. m = E Total (X s ) = E [µ(θ)]: Prima de riesgo colectiva. Valor esperado de todas las primas de riesgo individuales. a = V ar [E (X s )]: Varianza de las primas de riesgo individuales. Indicador de la heterogeneidad de la cartera. s 2 = E [Var (X s θ)]. Se supondrá también que X 1 θ, X 2 θ,..., X t θ son independientes e idénticamente distribuídas. Multiplicando la primera ecuación por E(X r ) y restándosela a la segunda obtenemos: El objetivo consiste en: ( Minimizar ci E µ(θ) c t s=1 De donde se deriva el sistema de ecuaciones: [ ] t E µ(θ) c c s X s =, E [X r ( µ(θ) c s=1 )] t c s X s s=1 ) 2 c s X s. =, r = 1, 2,..., t. Cov [µ(θ), X r ] = Teniendo en cuenta ahora que t c s Cov (X r, X s ), r = 1, 2,..., t. s=1 Cov(X r, X s ) = E [Cov(X r, X s θ)] + Cov [E(X r θ), E(X s θ)] = s 2 + a, Cov(X r, X s ) = Cov [µ(θ), µ(θ)] = Var [µ(θ)] = a, el sistema anterior puede reescribirse como: s 2 c r + t c s a = a, s=1 c = m m t c s. Debido a la simetría del sistema resuta que c 1 =... = c t, luego el sistema queda: s 2 c + atc = a, c + mtc = m. s=1 35

41 con: De donde se deduce: H (µ(θ) X 1,..., X t ) = c + Z(t) = t c s X s = m s2 s 2 + at + ctx s=1 = m s2 s 2 + at + at s 2 x = (1 Z(t))m + Z(t)x, + at tv ar [µ(θ)] tv ar [µ(θ)] + E [σ 2 (θ)] = t t + k = at at + s 2 siendo k = E [ σ 2 (θ) ] V ar [µ(θ)]. La pregunta que surge ahora es cómo estimar los parámetros estructurales m, a, s 2. Para ello se consideran: ˆm = 1 k ŝ 2 = 1 k â = k x j = 1 k j=1 k j=1 1 k 1 k t j=1 s=1 x js t ŝ j 2, ŝ j 2 = 1 t 1 t (x js x j ) 2 s=1 k (x j x) 2 1 t ŝ2. j=1 Los tres estimadores son insesgados y consistentes. E ( ˆm) = m, E (ŝ) 2 = s 2, E (â) = a, ( ˆm, ŝ, â) ( m, s 2, a ), cuando t Credibilidad e inferencia bayesiana Es conocido que los elementos básicos del análisis bayesiano son la verosimilitud y la distribución a priori: Verosimilitud Distribución a priori X f(x θ) θ π(θ) A partir de aquí, y utilizando el teorema de Bayes, se obtienen las distribuciones a posteriori y la distribución predictiva: 36

42 Distribución a posteriori f(x 1, x 2,..., x t )π(θ) π(θ x 1, x 2,..., x t ) = f(x 1, x 2,..., x t )π(θ)dθ Distribución predictiva f(x t+1 x 1, x 2,..., x t ) = f(x t+1 x 1, x 2,..., x t )π(θ x 1, x 2,..., x t )dθ θ Θ El siguiente resultado muestra que la media de la distribución a posteriori de θ es igual a la media de la distribución predictiva X t+1, siempre que E[X i θ] = θ, i = 1, 2,..., t Teorema 4.1 Sean X 1, X 2,... X t variables aleatorias i.i.d. tales que E(X i θ) = θ, i = 1, 2,..., t. Entonces, E(X t+1 x 1, x 2,..., x t ) = E(θ x 1, x 2,... x t ). Demostración: E(X t+1 x 1, x 2,..., x t ) = xf(x t+1 x 1, x 2,..., x t )dx X ( ) = x f(x t+1 θ)π(θ x 1, x 2,..., x t )dθ dx X Θ ( ) = xf(x t+1 θ)dx π(θ x 1, x 2,..., x t )dθ Θ X = E (θ x 1, x 2,..., x t ). Luego en este caso la prima neta bayes coincide con la media de la distribución predictiva. En análisis bayesiano resulta de fundamental importancia el concepto de distribuciones conjugadas. Así, una distribución a priori se dice conjugda para una verosimilitud dada si ambas, la distribución a priori y la distribución a posteriori resultante son de la misma familia de distribuciones de probabilidad. Una de las mayores ventajas de utilizar distribuciones a priori conjugadas es que la distribución a posteriori para un período (por ejemplo, un año) se puede utilizar como distribución a priori para el siguiente período. La siguiente tabla recoge algunas distribuciones a priori conjugadas respecto a una verosimilitud dada. 37

43 Verosimilitud, f(x θ) Priori, π(θ) Posteriori, π(θ x) x = x 1, x 2,..., x n, con x = (1/t) t i=1 x i X P(θ) θ Ga(a, b) Ga(a + t, b + tx) X P(θ) θ IG(µ, β) ( GIG tx 1 2, µ 1 2βt+1, ) β 2βt+1 X BN(r, θ) θ Be(a, b) Be(a + tr, b + tx) X B(m, θ) θ Be(a, b) Be(a + tx, b + mt tx) X Ga(θ, ϑ) θ Ga(a, b) Ga(a + tx, b + tϑ) X N(θ, σ 2 ) θ N(a, τ 2 ) ( ) aσ N 2 +nxτ 2 σ σ 2 +tτ, 2 τ 2 2 σ 2 +tτ 2 X Exp(θ) θ Ga(a, b) Ga(a + tx, b + t) El estimador de credibilidad de Bühlmann es igual al estimador bayesiano de la prima en un gran número de casos. Así, por ejemplo, si la distribución a priori es conjugada y la verosimilitud es un miembro de la familia exponencial, entonces el 38

44 estimador de crediblidad de Bühlmann de la prima neta coincide con el estimador de credibilidad bayesiano. Ejemplo 4.1 Sean X i variables aleatorias i.i.d. que tienen la distribución de Poisson con media θ, que a su vez tiene la distribución gamma. Comprobar que la media a posteriori de θ se puede escribir como una fórmula de credibilidad con factor de credibilidad como el de Bühlmann. Solución: luego, X P(θ) θ Γ(a, b) = π(θ x 1,..., x t ) = Γ(a + tx, b + t), E(θ x 1,..., x n ) = a + tx b + t = t b + t x + b a b + t b = Z(t)x + (1 Z(t))E[θ], Z(t) = t b + t = Z(t) Bayes Por otro lado, el factor de credibilidad de Bühlmann viene dado por: Ahora, Luego, Z(t) Bühlmann = tv ar [E(X θ)] tv ar [E(X θ)] + te [V ar(x θ)] E(X θ) = V ar(x θ) = θ, E[V ar(x θ)] = E(θ) = a b V ar[e(x θ)] = V ar(θ) = E(θ 2 ) E 2 (θ) = a(a+1) b 2 Z(t) Bühlmann = t a b 2 t a b 2 + b a ( a b = t a + t = Z(t) Bayes ) 2 = a b 2 Otros pares de distribuciones a priori conjugadas verifican que el estimador de Bühlmann y el bayesiano para la media a posteriori coinciden. Así ocurre en los casos: Beta binomial. Normal Normal. Gamma exponencial. Geométrica Pascal. 39

45 4.3. Modelo de Jewell En la década de los años 5 y 6 del siglo XX Bailey (195) y Mayerson (1964) probaron que la fórmula de credibilidad era el estimador Bayes (la prima Bayes) para determinadas combinaciones de verosimilitudes y distribuciones a priori. Por ejemplo, para los pares Poisson-gamma, binomial-beta, etc. Jewell (1974) demostró posteriormente que estos resultados no eran más que casos particulares del caso general consistente en considerar como verosimilitud la familia exponencial. Esto se pone de manifiesto en el siguiente resultado. Teorema 4.2 Dados un riesgo X con función de densidad f(x θ), y la distribución a priori del parámetro conjugada para esa verosimilitud, entonces el estimador de Bühlmann de la prima neta y el estimador bayesiano (la prima neta Bayes) coinciden cuando ambas distribuciones pertenecen a la familia exponencial. Demostración: La demostración se llevará a cabo considerando la familia exponencial continua, dejando para el lector la demostración para el caso discreto. Así, dada la familia exponencial de la forma: f(x θ) = a(x)e θx, θ Θ, c(θ) en la que c(θ) es la constante de normalización. La distribución a priori conjugada natural para esta verosimilitud es: π(θ) = [c(θ)] n e θx, (4.1) d(n, x ) donde d(n, x ) es de nuevo una constante de normalización y n y x dos parámetros de la que depende. La distribución a posteriori es de nuevo del tipo (4.1), pero con los parámetros actualizados: n n + t, t x x + x i. La prima neta de riesgo y la varianza de X vienen dadas por: P (θ) = µ(θ) = c (θ) c(θ), i=1 Var(X θ) = c (θ)c(θ) c (θ) 2 c(θ) 2 = d [P (θ)]. dθ 4

46 Derivando (4.1) con respecto a θ se obtiene: π 1 { } (θ) = n [c(θ)] n 1 c (θ)e θx x e θx [c(θ)] n d(n, x ) [ n c ] (θ) = π(θ) x = π(θ) [n µ(θ) x ]. (4.2) c(θ) Integrando ahora (4.2) sobre Θ tenemos: π(θ) Θ = n µ(θ)π(θ)dθ x, y suponiendo que π(θ) se anula en los extremos de Θ resulta: µ(θ)π(θ)dθ = x = m. n Entonces: Θ con Z(t) = Θ Θ µ(θ)π(θ x 1,..., x t )dθ = x + t i=1 x i = [1 Z(t)] m + Z(t) x, n + t t n +t. Derivando (4.2) con respecto a θ queda: π (θ) = π (θ) [n µ(θ) x ] + π(θ)n c (θ)c(θ) + c (θ) 2 c(θ) 2 = π(θ) [n µ(θ) x ] 2 π(θ)n Var(X θ). Finalmente, integrando (4.3) con respecto a Θ resulta: π (θ)dθ = [n (µ(θ) m)] 2 π(θ)dθ n E [Var (X θ)] Θ Θ = n {n Var [µ(θ)] E [Var (X θ)]}. Teniendo en cuenta que si π(θ) se anula en los extremos de Θ, también lo hará su derivada, concluimos que n = E [Var (X θ)] Var [E (X θ)] = s2 a, y, por tanto, el factor de credibilidad Z(t) es igual al de Bühlmann. En definitiva, el estimador de credibilidad de Bühlmann es igual al estimador bayesiano de la prima en un gran número de casos. Esto ocurre, por ejemplo, si la distribución a priori es conjugada y la verosimilitud es un miembro de la familia exponencial, entonces el estimador de credibilidad de Bühlmann de la prima neta coincide con el estimador de credibilidad bayesiano. Así ocurre con los pares de distribuciones beta-binomial, normal-normal, gamma-exponencial y Poisson-gamma,. 41

Lista de Ejercicios (Parte 1)

Lista de Ejercicios (Parte 1) ACT-11302 Cálculo Actuarial III ITAM Lista de Ejercicios (Parte 1) Prof.: Juan Carlos Martínez-Ovando 15 de agosto de 2016 P0 - Preliminar 1. Deriva las expresiones de las funciones de densidad (o masa

Más detalles

Tema 6: Modelos de probabilidad.

Tema 6: Modelos de probabilidad. Estadística 60 Tema 6: Modelos de probabilidad. 6.1 Modelos discretos. (a) Distribución uniforme discreta: La variable aleatoria X tiene una distribución uniforme discreta de parámetro n,que denoteramos

Más detalles

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Introducción a la Inferencia Bayesiana Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid concepcion.ausin@uc3m.es CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de

Más detalles

2.3. Análisis bayesiano para datos normales

2.3. Análisis bayesiano para datos normales 2.3. Análisis bayesiano para datos normales 87 2.3. Análisis bayesiano para datos normales Otra de las situaciones más frecuentes en la práctica estadística es aquella en la que nos encontramos con datos

Más detalles

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid

Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X

Más detalles

Tema 1: Introducción a la Estadística Bayesiana

Tema 1: Introducción a la Estadística Bayesiana Tema 1: Introducción a la Estadística Bayesiana Introducción En general, se usan probabilidades de modo informal para expresar la información o la incertidumbre que se tiene acerca de observaciones de

Más detalles

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE Estudiamos algunos ejemplos de distribuciones de variables aleatorias continuas. De ellas merecen especial mención las derivadas de la distribución normal (χ, t de Student y F de Snedecor), por su importancia

Más detalles

Modelos de distribuciones discretas y continuas

Modelos de distribuciones discretas y continuas Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Modelos de distribuciones discretas y continuas Estadística I curso 2008 2009 1. Distribuciones discretas Aquellas

Más detalles

10.1 Enfoque Bayesiano del problema de la estimación

10.1 Enfoque Bayesiano del problema de la estimación Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD Jorge M. Galbiati pág. DISTRIBUCION BINOMIAL 2 DISTRIBUCION POISSON 4 DISTRIBUCION HIPERGEOMETRICA 5 DISTRIBUCION GEOMETRICA 7 DISTRIBUCION NORMAL 8 DISTRIBUCION

Más detalles

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas Cálculo de probabilidad Tema 3: Variables aleatorias continuas Guión Guión 3.1. La función de densidad de probabilidad Definición 3.1 Sea P una medida de probabilidad en un espacio muestral Ω. Se dice

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

MATEMATICA ACTUARIAL III

MATEMATICA ACTUARIAL III DEPARTAMENTO ECONOMÍA FINANCIERA Y CONTABILIDAD I (ECONOMÍA FINANCIERA Y ACTUARIAL) MASTER EN CIENCIAS ACTUARIALES Y FINANCIERAS Asignatura MATEMATICA ACTUARIAL III (6 ECTS) Módulo 3: Análisis del Riesgo

Más detalles

Cálculo de Probabilidades II Preguntas Tema 2

Cálculo de Probabilidades II Preguntas Tema 2 Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución

Más detalles

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones

Más detalles

2 Modelos de probabilidad discretos sobre R

2 Modelos de probabilidad discretos sobre R UN CATÁLOGO DE MODELOS DE POBABILIDAD Julián de la Horra Departamento de Matemáticas U.A.M. Introducción En este capítulo vamos a dar un catálogo de algunos de los modelos de probabilidad más utilizados,

Más detalles

TEMA 3: Probabilidad. Modelos. Probabilidad

TEMA 3: Probabilidad. Modelos. Probabilidad TEM 3: Probabilidad. Modelos Probabilidad Fenómeno aleatorio: es aquel cuyos resultados son impredecibles. Ejemplos: Lanzamiento de una moneda: Resultados posibles: cara, cruz. Selección al azar de un

Más detalles

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números IV. Variables Aleatorias Continuas y sus Distribuciones de Probabilidad 1 Variable Aleatoria Continua Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo

Más detalles

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud

Más detalles

Familias de distribuciones

Familias de distribuciones Capítulo 2 Familias de distribuciones 2.1. Introducción Las distribuciones estadísticas son usadas para modelar poblaciones a través de un miembro de una familia de distribuciones. Cada familia se encuentra

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

Variables aleatorias continuas, TCL y Esperanza Condicional

Variables aleatorias continuas, TCL y Esperanza Condicional Variables aleatorias continuas, TCL y Esperanza Condicional FaMAF 17 de marzo, 2011 1 / 37 Poisson P(λ) Número de éxitos en una cantidad grande de ensayos independientes Rango: {0, 1, 2,... } = {0} N Función

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri Estadística 010 Clase Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 1. La distribución de Bernoulli. La distribución binomial 3. La distribución de

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Curso de Probabilidad y Estadística

Curso de Probabilidad y Estadística Curso de Probabilidad y Estadística Distribuciones de Probabilidad Dr. José Antonio Camarena Ibarrola camarena@umich.mx Universidad Michoacana de San Nicolás de Hidalgo Facultad de Ingeniería Eléctrica

Más detalles

Tema 2: Variables Aleatorias Unidimensionales

Tema 2: Variables Aleatorias Unidimensionales Tema 2: Variables Aleatorias Unidimensionales Teorı a de la Comunicacio n Curso 27-28 Contenido 1 Concepto de Variable Aleatoria 2 Función Distribución 3 Clasificación de Variables Aleatorias 4 Función

Más detalles

Estadística Bayesiana

Estadística Bayesiana Universidad Nacional Agraria La Molina 2017-1 Teoría de la decisión Riesgo de Bayes La teoría de decisión es un área de suma importancia en estadística ya que muchos problemas del mundo real pueden tomar

Más detalles

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado. Pérdida Esperada Uno de los objetivos de este estudio es construir una función de pérdidas para el portafolio de la cartera de préstamos que ofrece la entidad G&T Continental, basados en el comportamiento

Más detalles

Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones

Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones CAPÍTULO 3: DISTRIBUCIONES CON- JUGADAS Para leer Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones 2.4 2.7. Ejemplo 18 Supongamos que en la situación del Ejemplo 13, se

Más detalles

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos Contenido Acerca de los autores.............................. Prefacio.... xvii CAPÍTULO 1 Introducción... 1 Introducción.............................................. 1 1.1 Ideas de la estadística.........................................

Más detalles

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales: Probabilidad Condicional Teorema de Bayes para probabilidades condicionales: Definición: Sea S el espacio muestral de un experimento. Una función real definida sobre el espacio S es una variable aleatoria.

Más detalles

3 ESTIMACION. 3.1 Introducción

3 ESTIMACION. 3.1 Introducción 3 ESTIMACION 3.1 Introducción En un problema estadístico, si los datos fueron generados a partir de una distribución de probabilidad F(x) desconocida, la Inferencia Estadística permite decir algo respecto

Más detalles

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Tema 6 - Introducción 1 Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo. Generalización Tema 6. Variables aleatorias unidimensionales

Más detalles

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones.

Introducción al Tema 8. Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. Introducción al Tema 8 1 Tema 6. Variables aleatorias unidimensionales Distribución. Características: media, varianza, etc. Transformaciones. V.A. de uso frecuente Tema 7. Modelos probabiĺısticos discretos

Más detalles

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

Tema 3. Probabilidad y variables aleatorias

Tema 3. Probabilidad y variables aleatorias 1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

Cálculo de Probabilidades II Preguntas Tema 1

Cálculo de Probabilidades II Preguntas Tema 1 Cálculo de Probabilidades II Preguntas Tema 1 1. Suponga que un experimento consiste en lanzar un par de dados, Sea X El número máximo de los puntos obtenidos y Y Suma de los puntos obtenidos. Obtenga

Más detalles

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema: Modelos de probabilidad Modelos de probabilidad Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno será capaz

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con

Más detalles

Modelos de distribuciones discretas y continuas

Modelos de distribuciones discretas y continuas Tema 6 Modelos de distribuciones discretas y continuas 6.1. Modelos de distribuciones discretas 6.1.1. Distribución uniforme sobre n puntos Definición 6.1.2 Se dice que una v.a. X sigue una distribución

Más detalles

Estimación por intervalos

Estimación por intervalos Capítulo 9 Estimación por intervalos 9.1. Introducción En este capítulo se desarrolla la estimación por intervalos donde el proceso de inferencia se realiza de la forma θ C, donde C = Cx) es un conjunto

Más detalles

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática DEPARTAMENT D ESTADÍSTICA I INVESTIGACIÓ OPERATIVA Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática A. Distribuciones de variables aleatorias. 1. Descripción de una distribución

Más detalles

Derivada de la función compuesta. Regla de la cadena

Derivada de la función compuesta. Regla de la cadena Derivada de la función compuesta. Regla de la cadena Cuando en las matemáticas de bachillerato se introduce el concepto de derivada, su significado y su interpretación geométrica, se pasa al cálculo de

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación Estadística Tema 3 Esperanzas 31 Esperanza Propiedades 32 Varianza y covarianza Correlación 33 Esperanza y varianza condicional Predicción Objetivos 1 Medidas características distribución de VA 2 Media

Más detalles

Distribuciones de probabilidad más usuales

Distribuciones de probabilidad más usuales Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y

Más detalles

Introducción a los Procesos de Poisson *

Introducción a los Procesos de Poisson * Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22

Más detalles

INDICE. Prólogo a la Segunda Edición

INDICE. Prólogo a la Segunda Edición INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

9 Teoría de la Decisión

9 Teoría de la Decisión 9 Teoría de la Decisión En condiciones de incertidumbre, el papel del estadístico es tomar una decisión a partir de una observación parcial de la situación. Una mala decisión puede llevar a perdidas importantes.

Más detalles

1. La Distribución Normal

1. La Distribución Normal 1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando

Más detalles

MÉTODOS CUANTITATIVOS PARA FINANZAS Y CONTABILIDAD

MÉTODOS CUANTITATIVOS PARA FINANZAS Y CONTABILIDAD GUIA DOCENTE DE LA ASIGNATURA MÉTODOS CUANTITATIVOS PARA FINANZAS Y CONTABILIDAD Aprobada en Consejo de Departamento el día 01/07/2013 MÓDULO MATERIA CURSO SEMESTRE CRÉDITOS TIPO Métodos cuantitativos

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Georgina Flesia FaMAF 3 de mayo, 2012 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Estadística Grupo V. Tema 10: Modelos de Probabilidad

Estadística Grupo V. Tema 10: Modelos de Probabilidad Estadística Grupo V Tema 10: Modelos de Probabilidad Algunos modelos de distribuciones de v.a. Hay variables aleatorias que aparecen con frecuencia en las Ciencias Sociales y Económicas. Experimentos dicotómicos

Más detalles

DISTRIBUCIONES DE PROBABILIDAD

DISTRIBUCIONES DE PROBABILIDAD DISTRIBUCIONES DE PROBABILIDAD VARIABLE ALEATORIA Una variable x valuada numéricamente varía o cambia, dependiendo del resultado particular del experimento que se mida. Por ejemplo, suponga que se tira

Más detalles

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica

ESTADÍSTICA I Tema 3: Estimación puntual paramétrica ESTADÍSTICA I Tema 3: Estimación puntual paramétrica Planteamiento del problema Estimadores. Concepto, error cuadrático medio y propiedades deseables Construcción de estimadores: el método de máxima verosimilitud

Más detalles

Departamento de Matemática Aplicada a la I.T.T.

Departamento de Matemática Aplicada a la I.T.T. Departamento de Matemática Aplicada a la I.T.T. ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS EXAMEN FINAL Otoño 3 Duración: 3 horas FECHA: 9 de Enero de 4 Fecha publicación notas: 6--4 Fecha revisión

Más detalles

VARIABLES ALEATORIAS CONTINUAS

VARIABLES ALEATORIAS CONTINUAS VARIABLES ALEATORIAS CONTINUAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Definición de una V.A.C. Definición de una V.A.C.

Más detalles

Unidad IV: Distribuciones muestrales

Unidad IV: Distribuciones muestrales Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia

Más detalles

METODOS ESTADÍSTICOS

METODOS ESTADÍSTICOS METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.

Más detalles

Repaso de Probabilidad y Estadística

Repaso de Probabilidad y Estadística Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................

Más detalles

Experimento de lanzar 3 monedas al aire. Denominando por (C) a Cara y (X) a Cruz, el espacio muestral será: Ω={CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX}

Experimento de lanzar 3 monedas al aire. Denominando por (C) a Cara y (X) a Cruz, el espacio muestral será: Ω={CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX} 1 Tema 3 : Variable Aleatoria Unidimensional 3.1. Concepto de variable aleatoria Se llama variable aleatoria (v.a.) a toda aplicación que asocia a cada elemento del espacio muestral (Ω) de un experimento,

Más detalles

Elementos de probabilidad e inferencia estadística en el seguro

Elementos de probabilidad e inferencia estadística en el seguro Elementos de probabilidad e inferencia estadística en el seguro Instructor: Act. Erick Mier Moreno. Director general y profesor de AMAT- Applied Mathematics and Actuary Training. Profesor de asignatura

Más detalles

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos Curso 2016-2017 Contenido 1 Función de una Variable Aleatoria 2 Cálculo de la fdp 3 Generación de Números Aleatorios 4 Momentos de una Variable

Más detalles

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

Material introductorio

Material introductorio Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................

Más detalles

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos Definición Dado un espacio muestral S, diremos que X =(X 1, X 2,, X k ) es un vector aleatorio de dimension k si cada una de sus componentes es una variable aleatoria X i : S R, para i = 1, k. Notemos

Más detalles

CONTRASTE DE HIPÓTESIS

CONTRASTE DE HIPÓTESIS CONTRASTE DE HIPÓTESIS Antonio Morillas A. Morillas: Contraste de hipótesis 1 CONTRASTE DE HIPÓTESIS 1. Introducción 2. Conceptos básicos 3. Región crítica óptima i. Teorema de Neyman-Pearson ii. Región

Más detalles

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones:

x (0) si f (x) = 2s 1, s > 1 d) f 3. Analizar la existencia de derivadas laterales y de derivada en a = 0, para las siguientes funciones: FACULTAD DE CIENCIAS EXACTAS Y NATURALES UNIVERSIDAD DE BUENOS AIRES COMPLEMENTOS DE ANÁLISIS MAESTRíA EN ESTADíSTICA MATEMÁTICA SEGUNDO CUATRIMESTRE 2007 PRÁCTICA 7 1. Usando sólo la definición de derivada,

Más detalles

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47 Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor

Más detalles

Tema 7. Variables Aleatorias Continuas

Tema 7. Variables Aleatorias Continuas Presentación y Objetivos. Tema 7. Variables Aleatorias Continuas En este tema se propone el estudio de las variables aleatorias continuas más importantes, desde la más simple incrementando el grado de

Más detalles

Tema 5. Muestreo y distribuciones muestrales

Tema 5. Muestreo y distribuciones muestrales 1 Tema 5. Muestreo y distribuciones muestrales En este tema: Muestreo y muestras aleatorias simples. Distribución de la media muestral: Esperanza y varianza. Distribución exacta en el caso normal. Distribución

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

Instituto de Matemática Aplicada del Litoral

Instituto de Matemática Aplicada del Litoral PROBLEMAS DE BARRERA EN PROCESOS ESTOCÁSTICOS Ernesto Mordecki http://www.cmat.edu.uy/ mordecki mordecki@cmat.edu.uy Facultad de Ciencias Montevideo, Uruguay. Instituto de Matemática Aplicada del Litoral

Más detalles

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas Distribuciones Probabilísticas Curso de Estadística TAE,005 J.J. Gómez Cadenas Distribución Binomial Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo

Más detalles

EXAMEN DE ESTADÍSTICA Septiembre 2011

EXAMEN DE ESTADÍSTICA Septiembre 2011 EXAMEN DE ESTADÍSTICA Septiembre 2011 Apellidos: Nombre: DNI: GRUPO: 1. De una clase de N alumnos se tiene la siguiente información sobre las calificaciones obtenidas del 1 al 8 en una cierta asignatura

Más detalles

Estadística Descriptiva y Probabilidad FORMULARIO

Estadística Descriptiva y Probabilidad FORMULARIO Estadística Descriptiva y Probabilidad FORMULARIO Departament d Estadística i Investigació Operativa Universitat de València Angel Corberán Francisco Montes 2 3 Capítulo 1 Estadística Descriptiva 1.1.

Más detalles

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones

Más detalles

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2)

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2) Contenido 1 2 3 Cópula Empírica Cópula Kernel Resumen Recordemos que una cópula es una función C : I 2 I tal que: 1 Para cualesquiera u, v en I := [0, 1] C(u, 0) = 0 = C(0, v), C(u, 1) = u, C(1, v) = v.

Más detalles

Tablas de Probabilidades

Tablas de Probabilidades Tablas de Probabilidades Ernesto Barrios Zamudio José Ángel García Pérez José Matuk Villazón Departamento Académico de Estadística Instituto Tecnológico Autónomo de México Mayo 2016 Versión 1.00 1 Barrios

Más detalles

Variables aleatorias continuas y Teorema Central del Limite

Variables aleatorias continuas y Teorema Central del Limite Variables aleatorias continuas y Teorema Central del Limite FaMAF 17 de marzo, 2015 Variables aleatorias continuas Definición Una variable aleatoria X se dice (absolutamente continua) si existe f : R R

Más detalles

Modelo de Probabilidad

Modelo de Probabilidad Capítulo 1 Modelo de Probabilidad 1.1 Definiciones y Resultados Básicos Sea Ω un conjunto arbitrario. Definición 1.1 Una familia no vacía F de subconjuntos de Ω es llamada una σ-álgebra de subconjuntos

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

Econometría II. Hoja de Problemas 1

Econometría II. Hoja de Problemas 1 Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli

Más detalles

CONTRASTE DE HIPÓTESIS

CONTRASTE DE HIPÓTESIS CONTRASTE DE HIPÓTESIS Antonio Morillas A. Morillas: Contraste de hipótesis 1 CONTRASTE DE HIPÓTESIS 1. Introducción 2. Conceptos básicos 3. Región crítica óptima i. Teorema de Neyman-Pearson ii. Región

Más detalles

GUIÓN TEMA 2. PROPIEDADES DE LOS ESTIMADORES MCO 2.1 PROPIEDADES ESTADÍSTICAS DEL ES- TIMADOR MCO DE.

GUIÓN TEMA 2. PROPIEDADES DE LOS ESTIMADORES MCO 2.1 PROPIEDADES ESTADÍSTICAS DEL ES- TIMADOR MCO DE. ECONOMETRIA I. Departamento de Fundamentos del Análisis Económico Universidad de Alicante. Curso 011/1 GUIÓN TEMA. PROPIEDADES DE LOS ESTIMADORES MCO Bibliografía apartados.1,. y.3: Greene, 6.6.1, 6.6.3

Más detalles

Tema 4: Leyes de la desintegración

Tema 4: Leyes de la desintegración Tema 4: Leyes de la desintegración 1. Ley exponencial 1.1. Constante de desintegración y ley exponencial El proceso de la desintegración es de naturaleza estadística: Imposible predecir el momento de la

Más detalles

PRÁCTICA I. Ejercicios Teóricos

PRÁCTICA I. Ejercicios Teóricos PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las

Más detalles

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X Momentos El momento k-ésimo para una variable aleatoria discreta respecto del origen, es E(x) n = i = 1 k i ( ) x.p x El primer momento centrado en el origen (k=1) es la esperanza matemática de X También

Más detalles

Modelos de Riesgos para la determinación del margen de solvencia en una compañía de Seguros

Modelos de Riesgos para la determinación del margen de solvencia en una compañía de Seguros Modelos de Riesgos para la determinación del margen de solvencia en una compañía de Seguros SUAM Sociedad Uruguaya de Actuarios Matemáticos 9 de Noviembre 2012 Lic. Paula Bouza Montevideo - Uruguay INTRODUCCIÓN

Más detalles

Clasificación. Aurea Grané. Análisis Discriminante

Clasificación. Aurea Grané. Análisis Discriminante Diplomatura en Estadística 1 Diplomatura en Estadística 2 Análisis discriminante Análisis Discriminante y Clasificación Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid Supongamos

Más detalles

Terminaremos el capítulo con una breve referencia a la teoría de cardinales.

Terminaremos el capítulo con una breve referencia a la teoría de cardinales. TEMA 5. CARDINALES 241 Tema 5. Cardinales Terminaremos el capítulo con una breve referencia a la teoría de cardinales. Definición A.5.1. Diremos que el conjunto X tiene el mismo cardinal que el conjunto

Más detalles

PROBABILIDADES Trabajo Práctico 5. 0 si x<0. x3 si 0 x<2 1 si x 2

PROBABILIDADES Trabajo Práctico 5. 0 si x<0. x3 si 0 x<2 1 si x 2 PROBABILIDADES Trabajo Práctico 5 1. Sea X una variable aleatoria con función de distribución acumulada a) Calcular, usando F X, P (X 1) P (0.5 X 1) P (X >1.5) b) Hallar la mediana de esta distribución.

Más detalles