Frontera de Eficiencia de Futuros de Energía



Documentos relacionados
Frontera de Eficiencia de Futuros de Energía

ESTIMACIÓN. puntual y por intervalo

Índice de materias. 1. Introducción. 2. Conceptos básicos de la probabilidad

Capítulo 7: Distribuciones muestrales

Inferencia Estadística

Tema 3 Probabilidades

Alvaro J. Riascos Villegas Universidad de los Andes y Quantil. Marzo 14 de 2012

2. Probabilidad. Estadística. Curso Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso / 24

Conceptos Fundamentales. Curso de Estadística TAE, 2005 J.J. Gómez-Cadenas

8. Estimación puntual

TEMA 2 EXPERIMENTOS ALEATORIOS Y CÁLCULO DE PROBABILIDADES

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

ANÁLISIS DE UN JUEGO DE CARTAS: LAS SIETE Y MEDIA

Tema 10. Estimación Puntual.

Covarianza y coeficiente de correlación

Unidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES

DATA MINING EN LA BASE DE DATOS DE LA OMS KNOWLEDGE DETECTION (DETECCIÓN DEL CONOCIMIENTO) Q.F.B. JUANA LETICIA RODRÍGUEZ Y BETANCOURT

Probabilidad y Estadística

Estimación de una probabilidad

Definición Se llama suceso aleatorio a cualquier subconjunto del espacio muestral.

ANÁLISIS DE DATOS NO NUMERICOS

Determinación de primas de acuerdo al Apetito de riesgo de la Compañía por medio de simulaciones

Probabilidad. Relación de problemas 5

Estimación. Intervalos de Confianza para la Media y para las Proporciones

1.1. Introducción y conceptos básicos

CAPITULO 4 JUSTIFICACION DEL ESTUDIO. En este capítulo se presenta la justificación del estudio, supuestos y limitaciones de

Que permite las proyecciones..

Notas en Eonomía de la Información *

x y 8000 x + y a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas.

8.1. Introducción Dependencia/independencia estadística Representación gráfica: diagrama de dispersión Regresión...

Tema 1: Test de Distribuciones de Probabilidad

INFERENCIA ESTADÍSTICA. ESTIMACIÓN DE LA MEDIA

Test de hipótesis. Si H0 es cierta el estadístico. sigue una distribución t de Student con n grados de libertad: s n

Universidad Diego Portales Facultad de Economía y Empresa

Notas de Probabilidades

La metodologia Cuantitativa. Encuestas y muestras

Tema 2: Estimación puntual

ESTIMACION DE INTERVALOS DE CONFIANZA

Muestreo estadístico. Relación 2 Curso

RESPUESTAS A LAS PREGUNTAS DEL TEMA 3

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

T.3 ESTIMACIÓN PUNTUAL

Introducción a la Teoría de Probabilidad

Sistemas Aleatorios: Probabilidad Condicional

Teoría de Probabilidad

Tema 12: Contrastes Paramétricos

R PRÁCTICA II. Probabilidad-Variables Aleatorias. Probabilidad

Clase 4: Probabilidades de un evento

Ejemplo: Ing. Raúl Canelos. Solución CONFIABILIDAD SEP 1

REPRESENTACIÓN DE UNA DISTRIBUCIÓN DE PROBABILIDAD DISCRETA

ANÁLISIS DINÁMICO DEL RIESGO DE UN PROYECTO

Curso Práctico de Bioestadística Con Herramientas De Excel

PRUEBA DE KOLMOGOROV SMIRNOV (Contraste sobre la forma de la distribución) F(X) es la función de distribución que hipotetizamos.

CURSO: ANALISIS CUANTITATIVO DE RIESGOS FINANCIEROS CON CRYSTALBALL

Tema 7: Estadística y probabilidad

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2011 MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES TEMA 5: PROBABILIDAD

INFERENCIA ESTADÍSTICA. ESTIMACIÓN DE LA MEDIA

UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA

Proceso de la I.C.: Definir el problema y los objetivos de la investigación. Desarrollar el plan de investigación.

Manejo de la Información

1. El teorema de la función implícita para dos y tres variables.

El modelo Ordinal y el modelo Multinomial

Un problema sobre repetidas apuestas al azar

INFERENCIA ESTADÍSTICA

SISTEMAS CON ALTO PORCENTAJE DE ACIERTOS

Variables Aleatorias y Distribuciones de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

TEORIA DE LA PROBABILIDAD

UNIVERSIDADES DE ANDALUCÍA PRUEBA DE ACCESO A LA UNIVERSIDAD OPCIÓN A

Capítulo 7: Externalidades

INTRODUCCIÓN A LA PROBABILIDAD.

Cap. 24 La Ley de Gauss

OBJETIVOS CONTENIDOS PROCEDIMIENTOS

Economía de la información y la incertidumbre 3er curso (1º Semestre) Grado en Economía

Relación de problemas: Variables aleatorias

Selectividad Septiembre 2008 SEPTIEMBRE 2008

Aplicación 1: Asegurarse contra los malos resultados (contra la incertidumbre)

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2

Clase 8: Distribuciones Muestrales

Cadenas de Markov y Perron-Frobenius

Pruebas de. Hipótesis

7. Conclusiones. 7.1 Resultados

Tema 3. Comparaciones de dos poblaciones

Elementos de Probabilidad y Estadística Segundo de Economía Examen del 26 de junio de 2006 DURACIÓN: 2 horas

IES Fco Ayala de Granada Septiembre de 2011 (Modelo 5) Soluciones Germán-Jesús Rubio Luna

Lección 22: Probabilidad (definición clásica)

Tema 3. Espacios vectoriales

Aproximación local. Plano tangente. Derivadas parciales.

1. Producto escalar, métrica y norma asociada

En la presente investigación, se contrastará el modelo propuesto en la. investigación de Marisa Bucheli y Carlos Casacubierta, Asistencia escolar y

V.4 Incertidumbre, Métodos Probabilísticos de Análisis de Alternativas

Tema 1: Introducción a la Estadística

Grado en Finanzas y Contabilidad

ESTADÍSTICA 2OO7/2OO8 TEMA 10: SIMULACIÓN DE VARIABLES ALEATORIAS

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

SIMULACIÓN MCMC. Dr. Holger Capa Santos

Retiro de activos y el stock de capital bruto

EVALUACIÓN 11 B) C) 2 D) 15 E) 30

Movimiento Rectilíneo Uniforme

Introducción a la Probabilidad

Transcripción:

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) Frontera de Eficiencia de Futuros de Energía Eléctrica Seminario DERIVEX Octubre 24 de 2012

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) Plan de la presentación 1 La Aproximación Bayesiana a la Estadística El concepto de probabilidad Implementación 2 El modelo de Black y Litterman con Reducción de Dimensión 3 Un modelo de factores semiparamétrico (Borak - Weron 2008) 4 CP usando muchos predictores (Stock y Watson (2002))

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) El concepto de probabilidad Implementación La Aproximación Bayesiana a la Estadística La teoría clásica utiliza la información muestral para hacer inferencias sobre los parámetros de interés. Usualmente existe información incial sobre los parámetros de un modelo. Los parámetros del modelo pueden ser retornos esperados. Permite condicionar a los datos observados. En el análisis clásico se promedia sobre los los datos, aun los no observados. Distribuciones exactas. La teoría clásica se basa en muchas ocasiones en teoría asintótica. Coherencia y racionalidad: La teoría Bayesiana es una aproximación general al problema de inferencia consistente con la teoría de la decisión.

La Aproximación Bayesiana a la Estadística Las reglas de decisión en un contexto Bayesiano son óptimas desde un punto de vista clásico. Mécanica Bayesiana: Siempre se sabe qué hacer. Computacionalmente es difícil. Razones técnicas: 1 Permite hacer inferenecia estadístca en modelos no regulares. 2 Permite introducir incertidumbre en los parámetros para hacer prediciciones. 3 Permite hacer pruebas de modelos no anidados. 4 Se pueden analizar modelos jerárquicos de forma conceptualmente muy coherente.

La Aproximación Bayesiana a la Estadística Probabilidad = Incertidumbre. En la teoría Bayesiana el concepto de probabilidad tiene una interpretación distinta a la teoría clásica o frecuentista. El concepto de probabilidad es una medida de la incertidumbre sobre la ocurrencia de un evento. A diferencia de la teoría clásica es posible dar interpetaciones sobre la incertidumbre de un parámetro que no están basadas en la repetición bajo condiciones iguales de un experimento (intervalos de confianza). Por ejemplo, es posible cuantificar en términos probabiĺısticos el grado de incertidubre con la cuál se hace un pronóstico.

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) El concepto de probabilidad El concepto de probabilidad Implementación Existen por lo menos tres interpretaciones del concepto: objetiva (Fermat, Pascal, Huygens, etc), subjetiva (Ramsey, de Finetti, Savage), lógica. Axiomas de Kolmogorov.

El concepto de probabilidad Riesgo e incertidumbre: La paradoja de Ellsberg: Una urna contiene 90 bolas donde 30 son rojas. El resto de las bolas son amarillas o negras y su distribución es desconocida. 1 Apuesta A: Quien saque una bola roja gana el resto pierden. 2 Apuesta B: Quien saque una bola amarilla gana, el resto pierde. La mayoría de las personas optan por la A. Ahora consideremos la apuesta: 1 Apuesta C: Quien saque una bola roja o negra gana 2 Apuesta D: Quien saque una bola amarilla o negra gana, La mayoría de las personas escogen D.

El concepto de probabilidad Ellsberg explica éste resultado en términos de la diferencia entre el riesgo e incertidumbre. Las personas sometidas a estas escogencias suponen prudentemente que la distribución desconocida entre bolas rojas y amarillas pueden traerles desventaja y por lo tanto escogen en ambas ocasiones bajo el riesgo conocido (1/3 en la primera prueba, 2/3 en la segunda). Llama la atención sobre la necesidad de una teoría para modelar la incertidumbre.

El concepto de probabilidad Una forma de interpretar el concepto de probabilidad desde un punto de vista lógico es de acuerdo al concepto de razonamiento plausible (Jaymes): cuano en el mundo real observamos un evento B que típicamente es consecuencia de un evento A, decimos que A es plausible pero usalmente no es posible deducir que A ha sucedido. La idea predominante es que A es plausible dado que observamos B. La lógica es que si B ha ocurrido, esto arroja evidencia en favor de A. Al fundamentar la teoría de la probabilidad de esta forma se obtiene una formalización de la idea del grado de incertidumbre sobre la ocurrencia de un evento (plausibilidad del evento).

El concepto de probabilidad Luego la interpretación de la probabilidad de un evento no está relacionada con la frecuencia de un evento repetido sino con el grado de incertidumbre del evento. Esta es la interpreatción subjetivista del concepto de probabilidad. Para de Finetti la probabiidad (objetiva) de un evento no existe. Es algo tan ficticio y en contradición con laevidencia cuanto la existencia del éter. Cuál es la probabilidad de cada número cuando se lanza un dado al aire? La idea de aprendizaje en un ambiente incierto puede ser sutil.

El concepto de probabilidad La paradoja del gato I. Una persona está frente a tres puertas cerradas. Se sabe que detrás de alguna de las puertas hay un gato. La persona se le pide escoger una puerta. Antes de abrir cualquier puerta, una segunda persona que sabe exactamente que hay detrás de cada puerta y conoce también cuál fue la puerta elegida por la primera persona, éste abre una de las puertas que sea la elegida por la primera persona y en la que no esté el gato. Ahora, con una puerta abierta en la que no está el gato, se le pregunta a la primera persona si desearía cambiar de puerta.

El concepto de probabilidad El sentido común dice que no hace diferencia. Pero la teoría de la probabilidad dice otra cosa. La probabilidad de encontrar el gato en alguna de las dos puertas al cambiar la elección original es mayor que la probabilidad de que el gato esté en la primera puerta elegida. Llama la atención sobre la necesidad de una teoría de aprendizage.

El concepto de probabilidad Definición probabiidad condicional. Dados dos evento A y B, tal que P(B) > 0 definimos la probabilidad condicional de A dado B como: P(A B) = P(A B). (1) P(B) El teorema de Bayes (o regla de Bayes) afirma que: P(A B) = P(B A) P(A). (2) P(B) Este resultado es la base de toda la estadística Bayesiana.

El concepto de probabilidad La paradoja del gato II: Para formalizar este problema, supongamos que la primera elección fue la tercera puerta. Sean A 1, A 2 y A 3 los eventos en los cuales el gato está detrás de la puerta 1, 2 o 3 respectivamente. Sean B 1 y B 2 los eventos en los cuales el segundo jugador abre la puerta 1 o 2 reespectivamente. Nuetro objetivo es calcular P (A i B j ). Entonces dada la información del problema es natural suponer: P(A i ) = 1 3, P (B 1 A 1 ) = P (A 2 B 2 ) = 0 P(B 1 A 2 ) = P(B 2 A 1 ) = 1 y P(B 1 A 3 ) = P(B 2 A 3 ) = 1 2. Entonces si la segunda persona abre la puerta 2 es fácil calcular, usando la regla de Bayes, P ( A 1 B 2 ) = 2 3.

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) Implementación El concepto de probabilidad Implementación Sea Θ un espacio de parámetros o estados de la naturaleza y Ξ un espacio de datos observables. En términos de funciones de densidad el teorema se puede expresar como: f(θ y) = f (y θ)f (θ) f (y) donde f (y) es la distribución marginal de la variable aleatoria Y (o distribución marginal de los datos): f (y) = f (y θ)f (θ)dθ, Θ

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) Implementación El concepto de probabilidad Implementación f (θ y) es la distribución expost (posterior) del parámetro θ dado los datos observados y, f (y θ) es la distribución muestral.

Implementación La función L(θ y )= f (y θ), como función de θ se llama la función de verosimilitud. f (θ) es la distribución inicial (prior) sobre los parámetros. Obsérvese que no se ha hecho ninguna hipótesis sobre la forma de la distribución muestral. En general suponemos que Y es un vector de obsrevaciones y f (y θ) es la distribución conjunta o distribución del vector aleatorio Y.

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) El modelo de Black y Litterman con Reducción de Dimensión Suponga que el espacio de parámetros son los factores de riesgo de mercado X. Por ejemplo los retornos logarítmicos de un conjunto de acciones (diferentes puntos de la curva forward del precio de electricidad). En general vamos a modelar X mediante un modelo de factores: X t = B t F t + ɛ t Es importante que el modelo estático anterior se pueda estimar razonablemente, que se pueda hacer un buen modelo dinámico de F t y que B t sea una matriz de carga determinística.

El modelo de Black y Litterman con Reducción de Dimensión Sea f (x) la distribución inicial de X. La idea es deducir esta distribución del modelo de factores. El administrador tiene opiniones que expresa como una variable aleatoria V condicional a las observaciones del parámetro X.

El modelo de Black y Litterman con Reducción de Dimensión Supongamos que X N(µ, Σ), g(x ) = PX donde P es una matriz que selecciona los activos (o combinación) en los cuales el experto tiene una expectativa. V g(x ) N(g(X ), Ω), donde Ω representa la confianza que el experto tiene en sus expectativas. La distribución V g(x ) es la distribución muestral. La interpretación es que dado g(x ) el experto genera sus expectativas usando una distribucion N(g(X ), Ω). Un caso particular es cuando Ω = ( 1 c 1) PΣP T, c un escalar positivo. Obsérvese que PΣP T significa que el experto evalua la incertidumbre de g(x ) utilizando la distribución estimada de los factores de riesgo.

El modelo de Black y Litterman con Reducción de Dimensión El factor ( 1 c 1) lo que hace es disminuirla o aumentarla proporcionalmente. Si c 0 el experto tiene expectativas muy inciertas (la confianza en el experto es baja y la prior y posterior son similares). Entre más cerca a 1 esté c, menos inciertas son las expectativas del experto (la confianza en el experto es mayor y la prior y posterior son menos parecidas). En conclusion, cuando la confianza en el experto es alta, la prior y la posterior se distancian y cuando es baja la prior y la posterior son parecidas.

El modelo de Black y Litterman con Reducción de Dimensión Supongamos que el experto tiene expectativas V = v. Obsérvese que las expectativas son sobre un combinación lineal de los factores de riesgo. Se puede demostrar que: donde: X v N(µ BL, Σ BL ) µ BL (v, Ω) = µ + ΣP T (PΣP T + Ω) 1 (v Pµ) (3) Σ BL = Σ ΣP T (PΣP T + Ω) 1 PΣ. (4) Obsérvese que en este caso particular Σ BL no depende de v.

El modelo de Black y Litterman con Reducción de Dimensión Ahora si F N(µ F, Σ F ) entonces X N(Bµ F, B T Σ F B) desconociendo el papel de ɛ. Si V = PX entonces V = PBF desconociendo el papel de ɛ. Supongamos que los views se expresar de la forma: V PBF N(PBµ F, ( 1 c 1)(PB)T Σ F PB). Entonces V PBF N( Pµ F, Ω) donde Ω = ( 1 c 1)(PB)T Σ F PB. Luego el modelo BL en términos de la distribución de los factores y con views sobre las variables observables X es:

El modelo de Black y Litterman con Reducción de Dimensión Sustituir P por P, Ω por Ω y donde v es un view sobre PX F v N(µ BL, Σ BL ) donde: µ BL (v, Ω) = µ + ΣP T (PΣP T + Ω) 1 (v Pµ) (5) Σ BL = Σ ΣP T (PΣP T + Ω) 1 PΣ. (6)

El modelo de Black y Litterman con Reducción de Dimensión Ahora con la distribución posterior para los factores Fv N(µ BL, Σ BL ) se puede ahora calcular la distribución posterior para los factores de riesgo: X v N(Bµ BL, B T Σ BL B) (7) Con esta distribución expost de los factores de riesgo construimos la frontera de eficiencia de los factores X.

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) Un modelo de factores semiparamétrico (Borak - Weron 2008) Curva forward típica que queremos modelar. 2012 06 25 2012 07 23 precio forward 60 80 100 140 precio forward 60 80 100 140 0 100 200 300 400 días 0 100 200 300 400 días 2012 08 02 2012 08 23 precio forward 60 80 100 140 precio forward 60 80 100 140 100 200 300 400 días 0 100 200 300 400 días

Un modelo de factores semiparamétrico (Borak - Weron 2008) En el modelo que se propone a continuación se mantiene la misma notación de Borak y Weron. Sin embargo, la forma de reintepretarlo para implementarlo como una aplicación del modelo de Black y Litterman con reducción de dimensión es: 1 Y X 2 Z F 3 X Z Obsérvese que Z no aprece en el modelo de BL luego su introducción aquí es simplemente como covariantes adicionales (en este caso específico son variables determinísticas predecibles).

Un modelo de factores semiparamétrico (Borak - Weron 2008) El modelo propuesto es: donde Y t,j = m 0 (X j ) + L Z t,l m l (X j ) + ɛ t,j (8) l=1 Y t = (Y t,1,..., Y t,jt ) es la observación en t de la curva forward con vencimientos j = 1,...J t. Z t,l son los factores comúnes (no observables). X j son covariantes observables. m l (X j ) es un B-spline. Obsérvese que tiene la forma: Y t = B t Z t + ɛ t, donde B t son covariantes determinísticos en esta aplicación y Z t son factores no observados que se estiman a continuación.

Un modelo de factores semiparamétrico (Borak - Weron 2008) Las funciones B-splines son de la forma: m l (X j ) = K a l,k ϕ k (X j ) (9) k=1 donde K es el númerto de nodos, ϕ k son funciones spline y a l,k son coeficientes.

Un modelo de factores semiparamétrico (Borak - Weron 2008) Para determinar los factores no observables Z t,l y los coeficientes a l,k se resuleve el siguiente problema: T t=1 j=1 { J Y t,j L K Z t,l l=1 k=1 a l,k ϕ k (X j ) } (10)

La Aproximación Bayesiana a la Estadística El modelo de Black y Litterman con Reducción de Dimensión Un modelo de factores semiparamétrico (Borak - Weron 2008) CP usando muchos predictores (Stock y Watson (2002)) CP usando muchos predictores (Stock y Watson (2002)) Se mantien la misma notación de los artículos originales. Para implementarlo como un modelo BL con reducción de dimensión cambiamos: 1 Y X 2 X Z

CP usando muchos predictores (Stock y Watson (2002)) Supóngase que Y t es la serie a predecir y sea X t un objeto de N series de tiempo las cuales se cree predicen Y t. Ahora suponemos que el proceso de (X t, Y t ) se puede representar como: X t = ΛF t + e t (11) Y t+h = β F F t + β w w t + ɛ t+h (12) donde Λ es una matriz, β F y β w son vectores, e t es un vector de N 1 errores indiosincráticos, w es un vector de m rezagos de Y t, h es el horizonte del pronóstico y ɛ t+h es el error del pronóstico.