FUNDAMENTACIÓN EN RIESGO CON RISK SIMULATOR

Tamaño: px
Comenzar la demostración a partir de la página:

Download "FUNDAMENTACIÓN EN RIESGO CON RISK SIMULATOR"

Transcripción

1 FUNDAMENTACIÓN EN RIESGO CON RISK SIMULATOR TABLA DE CONTENIDO 1. RIESGO TIPOS DE RIESGO RIESGO DE MERCADO Valor en Riesgo Cópulas Teoría del Valor Extremo RIESGO DE CRÉDITO Pérdida Esperada Probabilidad de Incumplimiento (PD) Exposición (EAD) Severidad de la Pérdida (LGD) Métodos de Pérdida Esperada Técnicas Paramétricas Regresion lineal Análisis discriminante Modelo Logit y Probit Técnicas no Paramétricas Árboles de decisión Redes neuronales Pruebas de Evaluación Kolmogorov- Smirnov Curva ROC Chi-Square Hosmer - Lemeshow RIESGO OPERACIONAL Modelo del Indicador Básico (BIA) Método Estándar (STDAOp) y Estándar Alternativo (ASA) Método de Medición Avanzada (AMA) Medición de la Frecuencia Medición de la Severidad RISK SIMULATOR INTRODUCCIÓN A RISK SIMULATOR

2 4.2 SIMULACIÓN CON RISK SIMULATOR DEFINIENDO PERFIL DEFINIENDO VARIABLES SUPUESTOS DEFINIENDO VARIABLES PRONÓSTICO EJECUTANDO LA SIMULACIÓN RESULTADOS DE LA SIMULACIÓN EJEMPLO DE COSTOS TOTALES VaR por Método de Simulación de Montecarlo Ejemplo de Evaluación de Proyectos OPTIMIZACIÓN CON RISK SIMULATOR DEFINIENDO VARIABLES DECISIÓN DEFINIENDO VARIABLES OBJETIVO DEFINIENDO RESTRICCIONES EJECUTAR LA SIMULACIÓN RESULTADOS DE LA OPTIMIZACIÓN ANÁLISIS DE SENSIBILIDAD Y TORNADO PRONÓSTICO Regresión Lineal Análisis de Series de tiempo Pronósticos Box-Jenkins ARIMA identificación de un modelo arima Estimación Diagnostico pronostico ESTIMACIÓN POR RS PROCESOS ESTOCÁSTICOS MODELOS LOGIT- PROBIT TOBIT HERRAMIENTAS ESTADÍSTICAS Y ANALÍTICAS BIBLIOGRAFÍA

3 1. RIESGO El interés por la administración del riesgo se ha incrementado de manera vertiginosa esto en parte es causa de la globalización; en vista del gran número de transacciones que se presentan a diario entre empresas de diferentes lugares del mundo, hay presencia de efectos aleatorios los cuales pueden modificar los resultados de las transacciones, pero estos efectos pueden presentarse desde cualquier contexto: cambios en el precio de una acción, la volatilidad en el tasa de cambio de un país con respecto a otro, el daño de una máquina de producción, la sequía o el exceso de lluvias, el cambio en la normatividad de un país, son sólo algunos ejemplos de los efectos aleatorios que se encuentran en la realidad. Estos efectos aleatorios se pueden clasificar en dos, uno al que llamaremos riesgo y otro incertidumbre, aunque ambos están relacionados, el primero es la posibilidad de que ocurra un evento o impacto adverso, que puede ser interno o externo, que genere en cierto período de tiempo una variación en los resultados esperados de una situación dada, esta posibilidad es medible. Mientras la incertidumbre se diferencia con el riesgo en que no es medible debido a que incluye variables que se desconocen. Es importante que las organizaciones tengan claro qué es el riesgo y además que tengan conocimiento de los tipos de riesgos que se pueden presentar para así poder establecer políticas de gestión del riesgo de una forma más acertada. Pero, por qué es importante la administración del riesgo?. El riesgo es una variable importante en la toma de decisiones, si no se tienen en cuenta los riesgos a los que se enfrenta un individuo, una empresa, un sector o un país, los resultados podrían no ser los esperados. Un ejemplo claro es la decisión de una inversión, si se desea invertir en la Bolsa de Valores de Colombia, en la acción de la empresa A que tiene un valor por acción de $ , y el inversionista desea obtener ganancia, él esperará que para cierto período de tiempo la acción suba y de esta manera vender y obtener una ganancia. Pero qué ocurre si en vez de subir, la acción baja, el inversionista se enfrenta a una pérdida. Pero qué puede causar ésta pérdida?, puede ser desde un efecto por alguna noticia sobre la empresa A, hasta por el anunció de la Reserva Federal en Estados Unidos de un incremento en la tasa de referencia. El inversionista debe tener en cuenta todos estos factores de riesgo (variables aleatorias que no se conocen en el futuro ni su comportamiento exacto) para su decisión. Así mismo se puede presentar el caso donde la acción A llega a niveles superiores a los que esperaba el inversionista. Para poder controlar todos esos factores es importante desarrollar una buena administración del riesgo. La correcta gestión del riesgo incluye procedimientos capaces de generar y ofrecer un buen entendimiento de los conceptos y factores de riesgo así como las clases de riesgo a los que está expuesta una entidad, esto permitirá realizar una planificación para anticiparse a los posibles resultados y consecuencias. 3

4 2. TIPOS DE RIESGO A continuación se presentarán las clases de riesgo a las que una entidad puede enfrentarse: Riesgo de Crédito: Son las posibles pérdidas que se pueden generar por deterioro de la situación financiera de terceros o contraparte que tienen obligaciones con la entidad Riesgo de Mercado: Posibles pérdidas que se pueden dar por variaciones en tasas de interés, tasas de cambio, precios y demás factores de riesgo. Riesgo de Liquidez: Posibilidad de pérdidas que se pueden generar por la imposibilidad de vender activos o de adquirir pasivos ante necesidades de liquidez Riesgo Operacional: Es la posibilidad de que se incurra en una pérdida causada por una insuficiencia o falla de procesos, del personal, procedimientos, de maquinaria o cualquier elemento que influya en las labores de la empresa. Riesgo Legal: Riesgo de pérdida debido a los cambios en la normatividad de un país que afecta los acuerdos contractuales, procesos legales o sentencias adversas. Riesgo ambiental: Posibilidad de pérdida causada por un efecto ambiental o climático. Cada clase de riesgo contiene un grupo de factores de riesgo, por ejemplo, en el riesgo de mercado, algunos factores de riesgo son la tasa de interés, la tasa de cambio y el precio, entre otros. Como primer paso se deben definir los factores de riesgo de una empresa y posteriormente se determina un mapa de riesgos, el tercer paso medir el riesgo asignando un conjunto de números a las posibilidades de ocurrencia de los hechos inciertos, cuarto paso la medición de la exposición y por último determinar una medida integral del riesgo. Una vez se tenga una medida de riesgo, el personal encargado de la administración de riesgo tiene diferentes alternativas para la gestión, ellas son: Eludir la exposición eliminando la fuente de riesgo Transferir el riesgo pagando por ello Cubrir el riesgo Mitigar Asumir 2.1 RIESGO DE MERCADO A continuación se realizará una descripción teórica de algunas metodologías para la medición del riesgo de mercado, estas metodologías están enfocadas principalmente a la 4

5 medición del riesgo para activos financieros, por lo cual su análisis se realiza para entidades que cotizan en bolsa o que tengan inversiones en activos financieros. Algunas de las metodologías referenciadas en este trabajo son aplicables a empresas del sector real que no invierten en la bolsa o no tienen relación con activos financieros, así como las que si se relacionan. El análisis del riesgo de mercado se basa en cálculo de la volatilidad a la que está enfrentado un activo financiero, tales como acciones, bonos, futuros, así como variables financieras fundamentales como son la tasa de interés y la tasa de cambio de referencia. Estas metodologías se calculan con base en los retornos simples de un activo definidos como 1 para donde indica el precio del activo en el período, [2] presentan otras formas del cálculo de los retornos las cuales ofrecen ventajas estadísticas y matemáticas, en éste trabajo se usará el concepto de retorno simple presentado en la ecuación (20) para facilidad en los cálculos y su análisis. En el caso de un portafolio, el retorno puede escribirse como: para el siguiente período donde las ponderaciones naturaleza dinámica de las operaciones dentro de los portafolios, un activo en el período. (1) están indexadas por el tiempo, para reconocer la indica el retorno para Como el interés es medir el riesgo de mercado de un activo 2, tal como lo menciona [2], una forma de medirlo es por medio de la función de distribución de probabilidad de las pérdidas y ganancias de los activos. La primera forma de medir el riesgo es por medio de la desviación estándar la cual se calcula de la distribución de probabilidad de las pérdidas y ganancias, la desviación estándar mide la volatilidad de los retornos de un portafolio, se define como: donde, es la matriz de varianzas y covarianzas de los activos y es el vector de participaciones, 1 La ecuación (1) se supone con dividendos iguales a cero. 2 Se usará la palabra Activo para un conjunto de activos financieros donde teniendo el mismo significado que Portafolio el cual es un conjunto de activos financieros. 5

6 2.1.1 Valor en Riesgo El Valor en Riesgo o VaR 3 es una medida estadística que cuantifica la exposición al riesgo de mercado, a través de la estimación de la pérdida máxima que podría registrar un portafolio en un intervalo de tiempo y con cierto nivel de confianza, es decir, el VaR es la mínima pérdida esperada en una posición para un horizonte temporal, con un nivel de confianza (probabilidad) y moneda de referencia específicos. Esta metodología fue difundida por JP Morgan en 1994, donde se exponía que al considerar la diversificación de portafolios y analizar las correlaciones entre los rendimientos de los activos se podía disminuir el riesgo a causa de las volatilidades de los mercados financieros, bajo condiciones normales del mercado, ya que en momentos de crisis y turbulencias económicas la pérdida esperada se define por pruebas de estrés. Usando una definición estadística, el VaR es el nivel de pérdidas que se sitúa entre los peores resultados esperados y los mejores resultados esperados en un período de tiempo de la función de distribución de pérdidas y ganancias del activo. De acuerdo a la definición anterior, si el VaR diario de una cartera es de 1 millón de dólares, con una probabilidad del 95%, significa que, en el período que comprende las próximas 24 horas, existe una probabilidad del 5% de que la pérdida será superior al millón de dólares o dicho de otra forma, la probabilidad de que las pérdidas sean inferiores a 1 millón de dólares es del 95%. Existen diferentes métodos de calcular el VaR, el más común es el de varianzas y covarianzas, también conocido como método paramétrico o analítico, otras metodologías se basan en la simulación, que son de mayor uso en inversiones en derivados. Entre estos métodos se destacan la simulación por Montecarlo y la simulación histórica Cópulas Utilizando la teoría en espacios métricos, Abe Sklar (1959) desarrolla un conjunto de funciones denominadas cópulas, funciones que unen una función de distribución multivariada a sus marginales unidimensionales. La cópula logra capturar la estructura de dependencia entre las variables, ya que se encuentra definida por la transformación uniforme de las distribuciones marginales, independiente de la distribución de probabilidad que tengan cada una. Bajo esta premisa, no se hace necesario exigir distribuciones de probabilidad normales para las distribuciones marginales de las variables. Una Cópula es la función que vincula las distribuciones marginales de las variables con su distribución conjunta. El objetivo de las cópulas es encontrar la función de distribución conjunta H que mejor refleje la relación entre X y Y; aquélla que garantice que la distribución condicionada que se 3 Value at Risk 6

7 asocie represente fielmente esa relación de dependencia y pueda ser utilizada en el cálculo del VaR. Las cópulas permiten definir distribuciones de probabilidad conjuntas entre variables, adicionales a las distribuciones multivariadas estándar que limitan los tipos de dependencia a los que se puede representar. En este sentido, es posible concluir que la cópula logra capturar toda la información que exista sobre dependencia en un conjunto de variables Teoría del Valor Extremo La teoría del valor extremo introducida en los años cincuenta por el matemático alemán Emil Julius Gumbel, soluciona los problemas que se presentan en la medición del riesgo cuando la distribución de los retornos o precios de los activos financieros presenta colas pesadas y por ende cuando existe una mayor probabilidad de ocurrencia de eventos extremos. Existen dos tipos de metodologías para la identificación de los valores extremos en las series. El primero es conocido como máximo por bloques, cuyo campo de aplicación radica en las observaciones más grandes de una muestra amplia de observaciones idénticamente distribuidas. Por lo tanto, este modelo considera el máximo valor que toma una variable aleatoria en periodos sucesivos de tiempo. Dichas observaciones son consideradas como los valores extremos de la serie para cada uno de los periodos seleccionados. El segundo tipo de metodología es conocido como picos sobre el umbral (POT por sus siglas en inglés), los cuales se basan en las observaciones de una muestra que exceden un límite o umbral previamente definido. Estos modelos a su vez se encuentran divididos en aquellos que son semiparamétricos, como los construidos alrededor del estimador de Hill, y los totalmente paramétricos, basados en la Distribución Generalizada de Pareto (GPD). En este caso, la serie original no es dividida en bloques, sino que se define un umbral a lo largo de su historia, y aquellas observaciones que lo exceden se consideran valores extremos. Una de las grandes ventajas que ofrece el modelo POT es que gracias al uso más eficiente de la información, es considerado como el modelo más útil en aplicaciones prácticas 3. RIESGO DE CRÉDITO En un mundo altamente competitivo, el paisaje empresarial está cambiando rápidamente. No hace mucho tiempo, los acreedores ofrecían crédito a título personal, a menudo eran a vecinos de la ciudad o grupos sociales conocidos. Como la toma de decisiones se hizo más centralizada, el método tradicional de revisión por un agente de crédito ya no era factible y tampoco rentable. Para realizar un proceso de decisión más racional y cuantificable, el acceso a información más predictiva se convirtió en un elemento imperativo y la información de crédito se volvió extremadamente valiosa, [12]. 7

8 Actualmente el tema del riesgo en las organizaciones se ha convertido en uno de los principales temas a tratar en las agendas de las compañías, especialmente el riesgo crediticio pues gran parte de la actual crisis se debe a falencias en la administración de este tipo de riesgo. Como se mencionó anteriormente el riesgo crediticio son las posibles pérdidas que se pueden generar por deterioro de la situación financiera de terceros que tienen obligaciones con la entidad, este tipo de riesgo se mide para activos con naturaleza crediticia por ejemplo préstamos comerciales, hipotecas, créditos de consumo, entre otros. A continuación se presentarán los elementos de medición del riesgo de crédito: 3.1 Pérdida Esperada El objetivo de la medición del riesgo crediticio es obtener la distribución asociada a las pérdidas de incumplimiento esperadas y no esperadas, y el promedio de esta distribución es la Pérdida Esperada (Expected Loss), es decir, el monto de capital que podría perder una entidad en un plazo determinado si la contraparte no cumpliera con las obligaciones contraídas. Este cálculo se debe realizar constantemente ya que permite afrontar futuras pérdidas y tomar medidas oportunas tales como hacer provisiones. Para su cálculo son necesarios los siguientes elementos: Probabilidad de Incumplimiento (PD) Es la probabilidad de que un cliente caiga en incumplimiento en un período determinado. Su mínimo valor es cero, lo cual indicaría que es imposible que incumpla con sus obligaciones, y su máximo valor es uno cuando es seguro que incumpla Exposición (EAD) Estima la cantidad que el cliente adeudará al momento de que caiga en incumplimiento Severidad de la Pérdida (LGD) Es el porcentaje estimado de lo que la institución perdería en caso de que el cliente cayera en incumplimiento ellos: Teniendo estos tres componentes, la Pérdida Esperada es simplemente el producto de (1) 8

9 3.2 Métodos de Pérdida Esperada El elemento más importante en la estimación de la pérdida esperada, es la probabilidad de incumplimiento. Para ello actualmente el método más utilizado de medición es el credit scoring que es objetivo pues utiliza herramientas más técnicas, haciendo que las entidades tengan un menor rol y hayan menos elementos subjetivos sobre la aprobación de un crédito. Aunque por supuesto el conocimiento y la experiencia de los analistas también juega un papel esencial, especialmente cuando la información relevante no puede ser capturada por un modelo Score, [12]. Los modelos de pérdida esperada son más conocidos como modelos de Credit Scoring están enfocados a identificar y medir el riesgo de crédito derivado del incumplimiento, el cual se asocia a la pérdida potencial, causada por la incapacidad de la contraparte de cumplir con sus obligaciones, [4]. El término de Credit Scoring hace referencia al uso de modelos estadísticos que transforman información relevante en medidas (numerales) que permiten tener un criterio o una guía para la toma de decisiones financieras particularmente decisiones en relación a la evaluación del crédito (aprobación o no de un crédito). A través de modelos de predicción (algoritmos, regresiones), las instituciones pueden predecir el comportamiento de un cliente basados en la historia crediticia del cliente y las referencias de prestamistas anteriores. De esta forma, los clientes se clasifican en buenos o malos, asociándoles un bajo o alto riesgo, respectivamente y se define cuales de esos clientes potenciales serán efectivamente aceptados por la entidad, [17]. Un scoring se refiere al uso de un numeral para ordenar o clasificar casos (personas, compañías, países) de acuerdo a percepciones cualitativas o cuantitativas, con el objetivo de discriminar, dividir o separar los distintos casos. Los Scores son usualmente presentados como un numeral que representan una característica, mientras los rangos son presentados usualmente como letras (A, B, C, etc) que representan una o más cualidades. Los score son creados por procesos probabilísticos (estocásticos) y no por procesos determinísticos. Usualmente en lugar de ver los modelos scoring como una herramienta de predicción, son usados para conocer la probabilidad de un evento futuro basándose en las experiencias del pasado, dependiendo la información que se tenga acerca del crédito los modelos se pueden clasificar en dos tipos, de iniciación o de comportamiento. Los modelos de iniciación son construidos utilizando variables socio demográficas del cliente y una vez obtenida la probabilidad de incumplimiento asociada al cliente se utiliza como un criterio para otorgar o no una solicitud de crédito, una vez se tenga un historial de pagos del cliente de variables como moras, número de solicitudes, número de pagos, etc., luego se procede a la construcción de los modelos de comportamiento los cuales permiten realizar provisiones de acuerdo a la probabilidad de incumplimiento hallada por medio de los modelos. Con el transcurso de los años y la evolución de herramientas estadísticas utilizadas en el scoring se han desarrollado especialmente dos técnicas de modelos de predicción de la probabilidad de incumplimiento: las paramétricas y las no-paramétricas. La técnica paramétrica se vale de modelos de probabilidad lineal, análisis de discriminación y regresiones logísticas. Por otra parte, las técnicas no-paramétricas dejan de lado la implementación de 9

10 supuestos y se valen de nuevos sistemas de aprendizaje como son redes neuronales, algoritmos genéticos y K-nn (estimación basada en un conjunto de entrenamientos o prototipos). Pero, precisamente por la implementación de las mencionadas metodologías la técnica no-paramétrica ha recibido críticas dirigidas a la falta de transparencia y sobreestimación de las probabilidades, [18]. 3.3 Técnicas Paramétricas Básicamente podemos hablar de tres técnicas importantes de tipo paramétrico (aquellas que requieren supuestos sobre los datos subyacentes) las cuales son: Regresion lineal Esta técnica se dedica a la búsqueda de relaciones de tipo lineal entre las variables, donde la variable objetivo se denomina variable dependiente y es explicada por un conjunto de variables independientes o explicativas, cuyo objetivo es explicar la primera en términos de las demás variables o en estudiar cómo varia la primera con los cambios en cada una de las variables explicativas. El modelo de regresión es dado por donde es el intercepto, mide el cambio en con respecto a, para manteniendo los demás factores fijos y otros factores que además de influyen en. (2) es el término de error que agrupa a Para los modelos de scoring la variable dependiente es una variable binaria, dicotómica o dummy, donde la variable toma los valores de uno o cero. Para modelos de crédito ésta variable se relaciona con aprobación o no del crédito, calificación del cliente (bueno o malo), entre otros. Supóngase que para cada individuo o unidad experimental se define la siguiente variable aleatoria: Y = Los modelos con variables dummy son los modelos de escogencia discreta, dentro de éste grupo se encuentra la regresión lineal, pero se le da el nombre de modelo lineal de probabilidad. En los modelos lineales de probabilidad se encuentran algunos inconvenientes como son la violación del supuesto de heteroscedasticidad, pero la principal debilidad del procedimiento de estimación es que no hay posibilidad de restringir que los valores estimados estén entre 0 y 1, es decir,. 10

11 3.3.2 Análisis discriminante Es una técnica que permite construir un modelo predictivo para pronosticar el grupo al que pertenece una observación a partir de determinadas características observadas que delimitan su perfil. El análisis discriminante es una técnica de clasificación y segmentación ad hoc que permite asignar o clasificar nuevos individuos u observaciones dentro de grupos o segmentos previamente definidos. Su objetivo es producir una regla o esquema de clasificación que permita predecir la población a la que es más probable que tenga que pertenecer una nueva observación o individuo, [16]. El modelo predictivo que pronostica el grupo de pertenencia de una observación en virtud del perfil define la relación entre una variable dependiente que es categórica y varias variables independientes. Por tanto, la expresión funcional del análisis discriminante puede escribirse como. Las categorías de la variable dependiente definen los posibles grupos de pertenencia de las observaciones o los individuos y las variables independientes definen el perfil conocido de cada observación. El objetivo principal del análisis discriminante es utilizar los valores conocidos de las variables independientes medidas sobre un individuo u observación para predecir qué categoría le corresponde para clasificar el individuo en la categoría adecuada, otra finalidad del análisis discriminante es poder determinar las diferencias entre los grupos y su interpretación, esto se realiza por medio de las variables discriminantes, cuando se valoriza las características que diferencian un grupo de otro se le denomina análisis discriminante descriptivo y el uso del análisis discriminante para la predicción del grupo de pertenencia se denomina función discriminante. Cada caso o individuo deben ser mutuamente excluyente, es decir, debe corresponder a uno y sólo a un grupo; el modelo discriminante tiene los siguientes supuestos básicos: normalidad multivariante, homocedasticidad, linealidad y ausencia de multicolinealidad. Una vez comprobados los supuestos, se obtienen una serie de funciones lineales a partir de las variables independientes que permitan interpretar diferencias entre grupos y clasificar los individuos. Las funciones lineales son llamadas funciones discriminantes y son combinaciones lineales de las variables discriminantes, en un caso donde la variable dependiente tiene G grupos denominado análisis discriminante múltiple, el número máximo de funciones lineales viene dado por, donde es el número de variables explicativas. de las Cada una de las funciones discriminantes variables explicativas viene dada por la siguiente función lineal (3) Los ejes discriminantes vienen definidos respectivamente por los vectores definidos mediante las siguientes expresiones 11

12 Sea la matriz within-group de la suma de cuadrados y de productos cruzados y sea la matriz between-groups de la suma de cuadrados y de productos cruzados. [8], sustentó la función discriminante lineal basada en los valores y vectores propios de. Para obtener el primer coeficiente discriminante ponderado, debemos maximizar, donde son los valores propios en orden decreciente, tenemos para (4) La solución a este problema se obtiene derivando respecto de e igualando a cero, es decir (5) (6) (7) Es decir que la obtención de un vector propio 12 está asociado a la matriz no simétrica, obteniendo hasta ejes discriminantes los cuales no son ortogonales. Una vez obtenidas las funciones discriminantes, el siguiente paso es su interpretación la cual se realiza analizando la contribución de las variables independientes en la función discriminante correspondiente, para un individuo en la función discriminante, al sustituir los valores de cada variable independiente correspondiente se obtendrá la puntuación discriminante, cada coeficiente representará el cambio producido en caso de que una variable cambie. Para realizar la clasificación de los individuos es necesario basarse en las funciones de clasificación por grupos, las cuales realizan la clasificación de acuerdo a cuanto mayor sea la proximidad del individuo al grupo correspondiente, una vez teniendo las puntuaciones correspondientes se procede a establecer el grupo al que debe ser asignado, tomando el mayor valor de la puntuación y ese será su grupo. Otro procedimiento para realizar la clasificación es el de funciones de distancia generalizada, éste procedimiento se basa en el cálculo de la distancia de un caso a los centroides de cada uno de los grupos, los centroides se calculan reemplazando en cada función discriminante los valores de las por su valor medio

13 en cada. Para el cálculo de esta distancia se usa la distancia de Mahalanobis, [14], por lo tanto se asignará un individuo a un grupo de acuerdo a la menor distancia de Mahalanobis calculada. Un procedimiento muy utilizado es usando las probabilidaddes de pertenencia al grupo, donde simplemente un individuo será clasificado donde su probabilidades de pertenencia sea mayor, éste método supone que todos los grupos poseen un tamaño similar, pero en caso de que los tamaños sean diferentes, se incorpora el cálculo de probabilidades a priori usando para ello técnicas bayesianas de estimación, lo cual permite mejorar la predicción y disminuir el error de clasificación; con la regla de bayes es posible calcular la probabilidad a posteriori que sería la probabilidad de pertenencia en cada grupo Modelo Logit y Probit A causa de las limitaciones del modelo lineal de probabilidad, se debe buscar otra herramienta que permita transformar debe buscar una función tal que: en una probabilidad, se (8) De tal modo que, la probabilidad de que es una función de las variables exógenas, así que para que tome valores entre cero y uno, debe ser una función de probabilidad. Para esto en la medición del credit scoring se han usado dos funciones de distribución de probabilidad, la primera la distribución normal estándar la cual se denomina modelo PROBIT y la segunda es una función logística llamada LOGIT, ambos que hacen parte de los modelos de selección discreta. La distribución normal no es la que mejor describe el comportamiento de la variable respuesta, la distribución Bernoulli es la que describe el comportamiento de la variable aleatoria, donde es posible que el evento tome dos valores (0,1) parámetro Para, cuando para tiene distribución Bernoulli con, la función de densidad de probabilidad tiene la forma: (9) 13

14 Para y. Esta distribución se encuentra dentro de la familia exponencial con parámetro natural.en la distribución Bernoulli, el valor esperado de es igual a la probabilidad de observar el evento de interés, la media se restringe al intervalo y la varianza es una función particular de la media. Un modelo que cumple con estas condiciones es (10) donde es el vector de variables explicativas para el individuo, donde y. La anterior expresión es conocida como función de regresión logística. Si, cuando y cuando, para este modelo se satisface que (11) El lado izquierdo de la expresión en (??) es llamado la función logit y es equivalente al logaritmo del cociente de la probabilidad de observar el evento sobre la probabilidad de no observarlo, es decir, donde (12) (13) El cociente es llamado razón de disparidad (odds ratio) o como los momios a favor de la opción. Para la ecuación (8) se tiene otra función de distribución asociada para a parte de la función logística y es la función de distribución normal estándar, esto es con media cero y varianza uno, así tenemos que: 14

15 (14) Así el modelo puede ser expresado de la siguiente manera (15) Que se puede expresar como (16) Dado que la distribución normal es simétrica es posible expresar (16) como (17) De tal forma se puede resumir la probabilidad de que la variable cero y uno de la siguiente forma tome valores de (18) (19) La diferencia entre las distribuciones normal y logística es que ésta última da más peso a las colas en la distribución, la estimación de estos modelos no es posible realizarla por el método de mínimos cuadrados ordinarios debido al incumplimiento de las propiedades de los estimadores ya que no son insesgados, por lo tanto la estimación es realizada por el método de Máxima Verosimilitud. Este método selecciona como estimador aquel valor del parámetro que tiene la propiedad de maximizar el valor de la probabilidad de la muestra observada, para lo cual es necesario construir una función de verosimilitud que expresa la probabilidad de obtener valores observados en función de los parámetros desconocidos. Se han realizado varios estudios para determinar cuál es el mejor método, el Probit o el Logit, aún no se ha llegado a una conclusión pero para modelos de scoring el modelo logístico ha tomado ventaja por su mejor poder predictivo, [5] hace una extensa explicación sobre esta conclusión. 15

16 3.4 Técnicas no Paramétricas Ahora se tratará lo referente a las técnicas no paramétricas. Mientras que las técnicas paramétricas requieren muchos supuestos sobre los datos subyacentes, las técnicas no paramétricas requieren pocos o ninguno. Dentro de este grupo se encuentran técnicas como los árboles de decisión, redes neuronales, entre otros Árboles de decisión Los árboles de decisión son una herramienta gráfica, con una rama o raíz como la estructura de las cajas y líneas, que se utiliza para mostrar las posibles vueltas de eventos que pueden-o no-ser controlables, incluso el nombre implica que cada rama supone que representa opciones a disposición de una toma de decisiones. Los árboles de decisión también se utilizan para la visualización de datos en la clasificación y predicción de problemas. En general, los árboles de decisión no están bien adaptados para elaboración de modelos de predicción, pero hay casos en que se puede considerar. Un ejemplo de ello son los datos disponibles para un sistema de puntuación para el desarrollo de un nuevo producto. Esto podría ser abordado mediante la definición de una primera estructura de árbol usando los datos disponibles, y, posteriormente, la utilización de arranque (muestreo con reemplazo) para calcular las diferentes probabilidades de nodo terminal que luego se promedia Redes neuronales La humanidad en los últimos siglos ha tratado de sustituir los esfuerzos del hombre con las máquinas. Recientemente, este esfuerzo se ha extendido más allá del trabajo en el dominio del pensamiento y la toma de decisiones. Si bien el objetivo es hacer la vida más fácil, muchas personas temen que las computadoras, con el tiempo, obtengan la capacidad de pensar y funcionar de manera similar a los seres humanos. De hecho, el uso de cualquier modelo predictivo como parte de un proceso de decisión podría ser interpretada como la influenza aviar. Estas son las redes neuronales, que pueden describirse como elementos de cálculo de redes que pueden responder a los insumos, y aprender a adaptarse al medio ambiente. Éstas son, supuestamente capaces de imitar la manera en que funciona el cerebro humano, especialmente cuando se trata de auto-organización y aprendizaje. El resultado final es algo así como un árbol de decisión, excepto que el detalle es mucho más fino. 3.5 Pruebas de Evaluación 16

17 3.5.1 Kolmogorov- Smirnov La prueba de Kolmogorov-Smirnov (KS) ([10]; [19]) es una prueba que se fundamenta en la curva de Lorenz en las teorías de crecimiento. En el caso de credit scoring, este estadístico se utiliza para evaluar el poder predictivo del sistema. La metodología que se lleva a cabo es la de tomar dos distribuciones, se fija un valor crítico y si el valor de KS es menor que ese valor crítico entonces habrá evidencia para decir que esas dos distribuciones son iguales y que el modelo tiene un buen nivel predictivo. La hipótesis nula de la prueba K-S es que las dos muestras provienen de poblaciones con la misma función de distribución Y se evalúa por medio de la siguiente estadística y la hipótesis nula es rechazada al nivel si Finalmente, el estadístico KS mide la diferencia entre dos distribuciones. Para el caso aplicado al scoring se evalúa si éste puede hacer distinción entre los préstamos buenos y malos. Por lo tanto hace una distinción en la distribución de scoring entre los buenos y los malos. Generalmente, el rango que toma el KS se encuentra entre 20 y 70. Se debe considerar que para la creación del este indicador se necesita de las frecuencias acumuladas tanto de los buenos como de los malos Curva ROC Basados en la curva de Lorenz y el indicador de Gini, se han usado estos conceptos como herramientas para el scoring y determinar el poder de predicción de una scoring. La Curva de Características Operativas (ROC) 4 permite cuantificar la precisión discriminatoria de un modelo, este análisis se realiza por medio de una gráfica denominada curva ROC, el cual es un análisis de sensibilidad, sensitivity, que es la habilidad para marcar valores positivos que están correctamente clasificados y especificidad, specificity, que es la habilidad de marcar valores negativos que están correctamente clasificados, por lo tanto la sensibilidad es la verdadera tasa de valores positivos y la especificidad la tasa de valores 4 Receiver Operating Characteristic 17

18 negativos. Cuando esta curva tiende hacia la izquierda, entonces se dice que el modelo tiene un buen poder de predicción. Para todos los posibles puntos de corte o criterios de clasificación que se seleccionen para discriminar dos poblaciones, en este caso buenos y malos clientes, siempre habrá casos en los que se clasificarán correctamente a los buenos clientes como buenos (A: fracción positiva verdadera) y algunos casos en donde los buenos clientes serán clasificados como malos (B: fracción de falsos negativos). Por otro lado, algunos clientes malos serán clasificados como buenos (C: fracción de falsos positivos) y algunos clientes malos serán correctamente clasificados como malos (D: fracción negativa falsa). Lo anterior lo podemos describir por medio de la siguiente tabla: Modelo/Observado Buenos Malos Total Buenos A C A+C Malos B D B+D Total A+B C+D Tabla 1: Clasificación de clientes del modelo vs. Observado De acuerdo a lo anterior, se define lo siguiente: Sensibilidad = Especificidad = El rendimiento global de una prueba de diagnóstico se suele resumir el área bajo la curva ROC. Esta área se puede interpretar como la probabilidad de que el resultado de una prueba de diagnóstico de un sujeto anormal, seleccionado al azar será mayor que el resultado de la prueba de diagnóstico mismo de un sujeto normal seleccionado al azar. Cuanto mayor es el área bajo la curva ROC, mejor será el rendimiento global de la prueba de diagnóstico Chi-Square Es utilizada para medir o evaluar una hipótesis, comparando los datos reales con los estimados, en esta prueba se establece un límite de confianza, y se busca la relación lineal entre las variables, y por medio del p - valor establece una medida de confianza. Sin embargo el uso de esta prueba no garantiza plenamente la independencia o la dependencia de las variables, ya que está sujeto al nivel de confianza y al p - valor que 18

19 utilicemos para aceptar o rechazar la hipótesis nula, pero entre mayor sea el nivel de significancia utilizado menor será la probabilidad de rechazar erróneamente la hipótesis nula. Esta prueba es utilizada dentro del riesgo financiero, para estimar en cierta medida la tendencia de las variables con relación al tiempo, y estimar el riesgo con relación a las personas consideradas buenas o malas. Dentro del crédito es necesario tener en cuenta que el uso de esta prueba esta estimando unos datos, que en la realidad estos pueden verse afectados por otras variables. Los clientes son aceptados o rechazados dentro de los créditos dependiendo del grado de riesgo que se determine. Sin embargo el comportamiento de los créditos es dinámico y puede verse afectado por la infraestructura, la competitividad, los cambios en la economía, etc. Variables que no son independientes y por el contrario pueden estar muy correlacionadas entre sí Hosmer - Lemeshow El test propuesto por [9], comprueba que las variables que se están teniendo en cuenta en el modelo son las apropiadas dado que ayudan a identificar clientes buenos y malos. Este test es aplicado a los modelos de regresión logística. Por lo tanto, si las variables determinan el tipo de clientes, se deduce también que los modelos de regresión logística van a tener un buen nivel de predicción. Para calcular este test se debe tomar un muestra de los préstamos; de esta muestra se deben generar grupos y a partir de estos separar los clientes buenos y malos y hacer la diferencia entre los actuales malos y los que se esperan. Con cada grupo se hace la anterior operación y se realiza la sumatoria de los mismos, este gran total se divide entre los malos esperados multiplicados por la tasa de buenos. Un analista de riesgo debe tener presente todos estos indicadores que en conjunto van a evaluar el estado del modelo creado, no se debe desconocer que tanto la prueba KS como la curva de ROC son los más utilizados, sin embargo, es ideal contrastar con otro tipo de estadísticos que aumenten la certeza que se tiene sobre el modelo o que generen inquietudes sobre tales modelos. En definitiva el credit scoring es una herramienta indispensable y eficaz para la medición de riesgo, que debe complementarse con las funciones apropiadas y la moderación de los resultados, de tal forma que sea confiable en el momento de tomar una decisión o realizar una predicción. Adicionalmente, el calcular un nivel de riesgo permite a los prestamistas estimar un nivel de pérdidas (por probabilidad de impago de los clientes) o probabilidades de ganancia, según sea el caso. Por lo tanto, el uso de credit scoring es común en escenarios de oferta fija, aunque su uso en otros campos está creciendo actualmente, bajo la tendencia de expectativas de pérdida, en donde es tradicional el uso del valor en riesgo (VaR). Este modelo VaR es usado para la determinación de los requerimientos mínimos de capital que deben hacer los bancos, adoptado en el comité de Basilea II, [17]. A la hora de 19

20 escoger una técnica para modelar el riesgo de crédito se debe tener en cuenta la información con la que se cuenta, así como las herramientas tecnológicas disponibles y la experticia de quien vaya a modelar. Sin embargo la tendencia general es que no se llegue a un acuerdo sobre cuál modelo es superior o mejor ya que simplemente pueden ser construidos bajo técnicas o metodologías diferentes como por ejemplo aquellos que usan redes neuronales, ó los tradicionales de análisis estadístico, [11]. 2.3 RIESGO OPERACIONAL En los últimos años hemos asistido a un crecimiento progresivo de la preocupación de las entidades financieras por el riesgo operacional, un riesgo que, aunque siempre ha existido en la banca, quizás ahora se manifiesta con mayor intensidad, debido a factores como las mejoras experimentadas en las tecnologías y la creciente complejidad y globalización del sistema financiero. Como respuesta a este fenómeno, las entidades han ido incrementando paulatinamente los recursos asignados a este riesgo, pasando de la simple mejora de los sistemas de control al desarrollo de modelos de medición y gestión del riesgo operacional que intentan obtener una estimación razonable del impacto de futuras pérdidas. El Comité de Basilea ha venido a recoger la preocupación y la importancia que los supervisores otorgan a este riesgo, al haber introducido en el Nuevo Acuerdo de Capital de Basilea, unas exigencias de capital explícitas por riesgo operacional. Definición Basilea II define el riesgo operacional como el riesgo de pérdida resultante de una falta de adecuación o de un fallo de los procesos, el personal o los sistemas internos, o bien como consecuencia de acontecimientos externos. Esta definición incluye el riesgo legal, pero excluye el riesgo estratégico y el riesgo reputacional. Se asocian a errores que comete la entidad mandante, que se generan por: Instrucciones equívocas dadas a la parte que ejecuta las órdenes Por infidelidades de los funcionarios con la entidad. Fallas en los sistemas, procedimientos, en los modelos, falla en capacitación, etc. 20

21 2.3.1 Modelo del Indicador Básico (BIA) El cálculo se realiza multiplicando un factor de 15% por promedio de los tres últimos años de los ingresos netos anuales positivos de la institución Método Estándar (STDAOp) y Estándar Alternativo (ASA) STDAOp: Se clasifican los activos en ocho líneas de negocio y se les asigna un factor β que puede ser del 12%, 15% ó 18%. Cada factor se multiplica al promedio de los tres últimos años de los ingresos netos positivos; en caso de que el ingreso neto total sea negativo en algún año, entonces se sustituye el valor de ese año por cero. ASA: Se calcula igual que el STDAOp a excepción de dos líneas de negocio, la banca comercial y la minorista. En el caso de estas líneas de negocio, los préstamos y los anticipos son multiplicados por un factor fijo m = 0.035, y el resultado sustituye a los ingresos brutos como indicador de riesgo Método de Medición Avanzada (AMA) División de la entidad en líneas de negocio y topologías de riesgo Capital basado en el cálculo de las pérdidas esperadas e inesperadas (VaR del 99,9% en un horizonte temporal de un año. Requiere de 2 funciones distribución: Frecuencia y Severidad. De la combinación de ambas funciones deriva la distribución de perdidas por riesgo operacional VaR. 21

22 Medición de la Frecuencia La frecuencia del riesgo operacional se refiere a la periodicidad en que se presente determinado fallo operacional. Las funciones de distribución más aplicadas a estos fenómenos: Binomial, Poisson, Binomial Negativa, Hipergeométrica Dsicretas Medición de la Severidad La severidad hace referencia a la pérdida monetaria incurrida por la ocurrencia de un fallo operacional. Se trata entonces de variables de naturaleza continua. 22

23 4. RISK SIMULATOR Risk Simulator es un software de simulación Monte Carlo, pronóstico y optimización. El software está escrito en Microsoft.Net y C# y funciona junto con Excel como complemento. Risk Simulator contiene los siguientes módulos: - Simulación de Monte Carlo - Pronóstico - Optimización - Modelación y herramientas de análisis Los requisitos mínimos para Risk Simulator son: Procesador Pentium IV Windows XP o Vista MS Excel XP, 2003 ó MB en Disco Duro 1GB de RAM 23

24 4.1 INTRODUCCIÓN A RISK SIMULATOR Risk Simulator funciona como un complemento a MS Excel facilitando su manipulación por medio de un menú de funciones que están disponibles en diferentes idiomas, inglés, español, francés, italiano, alemán, etc., además permite acceder a cada herramienta por medio de diferentes alternativas como son íconos, menús y el clic derecho del mouse. Gráfica 1. Menú Simulador de Riesgo En la gráfica 1 se observan cada uno de los íconos que contienen las funciones de Risk Simulator, a continuación se mencionará la funcionalidad de cada una de los íconos. ICONO FUNCIONALIDAD Es el ícono principal de Risk Simulator ya que permite acceder a todas las funcionalidad del software por medio de un menú de opciones, son las mismas funcionalidades de los demás íconos pero en un solo listado. Crea un nuevo perfil de simulación para almacenar todos los supuestos de entrada y pronósticos de salida. Puede tener múltiples perfiles en un solo modelo Permite seleccionar, eliminar o duplicar entre varios perfiles activos uno para realizar la simulación. Edita las preferencias del perfil activo, como son número de iteraciones, valor semilla de simulación, activación de correlaciones y el nombre del perfil. Establece en la celda activa un supuesto de entrada de distribución. La celda debe contener un valor y no una función. Establece en la celda activa como pronóstico de salida. La celda debe contener una función o ecuación. Copia un supuesto de simulación, la variable de pronóstico o de decisión con sus parámetros o vínculos a celdas correspondientes. 24

25 Pega las celdas copiadas con el ícono Copiar, supuestos de simulación, variables de pronóstico o decisión. Si después de dar Copiar se da ESC se copian los parámetros pero no los valores de la celda copiada. Quita el supuesto de simulación, variable de pronóstico o decisión. Corre la simulación a una velocidad regular (útil en modelos pequeños o cuando la súper velocidad no puede ser aplicada debido a errores en el modelo. La simulación se ejecuta a súper velocidad primero examinando el modelo y luego convirtiéndolo a código puro. No todos los modelos pueden correr a súper velocidad, por ejemplo cuando se tienen datos externos o funciones VBA. Corre la simulación paso a paso. Esto es muy útil para pronóstico de ilustración o para revisar si una celda de supuesto o pronóstico esta cambiando correctamente. Restablece la simulación a su estado inicial. El ícono Pronóstico emerge el listado de las opciones de pronóstico disponibles en el programa Ejecuta optimizaciones estáticas, estocásticas y dinámicas, crea un reporte si elige la optimización estocástica, lo anterior si se ha definido correctamente los supuestos, las variables de decisión y objetivo. Objetivo: Establece la celda la cual se maximizará o minimizará la optimización Decisión: Establece la celda la cual está relacionada con la celda objetivo Restricción: Son las restricciones generadas por las variables de decisión o de objetivo. El ícono emerge el listado de todas las herramientas analíticas disponibles en el simulador de riesgo, por ejemplo análisis estadístico, econométrico, distribución, etc. Cambia las opciones del programa como idioma, colores en los supuestos, pronósticos o decisión y permite que Risk Simulator inicie o no automáticamente con Excel. Permite obtener ayuda en línea sobre el programa, manual de usuario, modelos de ejemplo, información de contacto y otras fuentes de información Permite la administración de la licencia del software (instalación y actualización) 25

26 Despliega diferentes íconos de Risk Simulator para las opciones de Simulación, Pronóstico, Optimización y Herramientas de Análisis. 4.2 SIMULACIÓN CON RISK SIMULATOR Simulación es un modelo matemático o lógico, representativo de un sistema o un problema de decisión, con el que se obtienen resultados acerca del desempeño de las variables de interés para asistir al proceso de toma de decisiones. Dado un conjunto de valores para las variables de decisión, un estudio de simulación permite estimar cual es la distribución probabilística que siguen los resultados, junto a sus probabilidades de ocurrencia. El MÉTODO DE MONTE CARLO (propuesto por J. Von Neumann y S. Ulam) es una técnica de selección de números aleatorios a través de una o más distribuciones de probabilidad, para utilizarlas en una simulación. En un Monte Carlo, el muestreo artificial o simulado trata de crear un universo teórico descrito completamente por una LEY DE PROBABILIDAD que se supone conocida o adecuada. Posteriormente, de este universo se obtiene una MUESTRA aleatoria mediante una sucesión de números aleatorios. La simulación de Montecarlo consta de: Un procedimiento de generación de números aleatorios Un procedimiento de extracción de valores de las variables aleatorias Un procedimiento de cálculo de las variables a pronosticar (el modelo) Un procedimiento de acumulación de los resultados Un procedimiento de repetición del experimento 26

27 X Las variables aleatorias independientes X X X X Las Constantes K El Modelo Las Variables Pronosticadas Las variables de decisión D Gráfica 2. Proceso de Simulación En la gráfica 2 se observa la relación que debe existir entre las variables y el modelo para realizar la simulación, de igual forma este procedimiento se debe realizar para hacer optimizaciones y para hacer optimización estocástica. Los pasos para realizar la simulación de Monte Carlo debe seguir los siguientes pasos por Risk Simulator: 1. Definir un perfil 2. Definir variables supuestos 3. Definir variable pronóstico 4. Ejecutar la simulación 5. Obtener reportes y/o datos DEFINIENDO PERFIL Por medio del ícono Nuevo Perfil se definen las características para la nueva simulación, en el gráfico 3 se observa la ventana emergente del Nuevo Perfil, en esta ventana se define el nombre de la simulación, el número de iteraciones, si se activan las correlaciones, especificar la semilla del número aleatorio y si en el caso de encontrar errores en la simulación pausar o continuar la simulación. 27

28 Gráfica 3. Nuevo Perfil de Simulación En el caso en que ya se tengan varios perfiles de simulación, entonces se debe proceder a seleccionar un perfil de los disponibles en el libro activo DEFINIENDO VARIABLES SUPUESTOS Una vez activado o seleccionado el perfil de simulación, colocando el cursor sobre una celda que contenga un valor que vaya a ser seleccionada como variable de supuesto se da clic en el ícono de Supuesto de Entrada o clic derecho y la misma opción y se selecciona una distribución dependiendo si la variable es discreta o continua. Tanto continuas como discretas También se puede ajustar una función a los datos del comportamiento de la variable aleatorias Es posible definir una función a la medida de los datos 28

29 Gráfica 4. Definir Supuestos Como se observa en la gráfica 4, hay un listado de posibles distribuciones que se ajustan de acuerdo al tipo de información disponible, al modelo o a la experiencia del analista. Cada distribución necesita unos parámetros que deben ser ingresados por el usuario o son el resultado de un ajuste de distribución anterior DEFINIENDO VARIABLES PRONÓSTICO Antes de la definición de una variable como pronóstico se debe hacer con anterioridad una definición del modelo tal como se explica en la gráfica 2, la variable pronóstico debe contener una función y/o fórmula que vincule las variables de supuesto y el modelo. Gráfica 5. Variable Pronóstico En la gráfica 5 se observa la ventana emergente como resultado de activar el ícono de Pronóstico de Salida, en esta ventana es posible definir el nombre de la celda de pronóstico, el nivel de precisión que por default es del 95%, el nivel de error y si se desea que haya una dinámica entre la simulación y la ventana de pronóstico EJECUTANDO LA SIMULACIÓN Finalizado el proceso de definición de variables supuesto y pronóstico se procede a ejecutar la simulación, se tienen las alternativas de Paso a Paso, Correr y Súper Velocidad. Gráfica 6. Ejecución de la Simulación 29

30 4.2.5 RESULTADOS DE LA SIMULACIÓN Al momento de finalizar la simulación se obtienen los resultados correspondientes de acuerdo a los criterios seleccionados en el perfil de simulación, las variables supuesto y de pronóstico, se genera una gráfica de cada una de las variables pronóstico en el caso de haber sido activada la opción correspondiente. Gráfica 7. Gráfica de Pronóstico SI se desea obtener un reporte del modelo se va a Herramientas Analíticas Crear un reporte (gráfica 8) el cual muestra cuales fueron los supuestos y las variables de pronóstico. Gráfica 8. Reporte del modelo Si se desea obtener solamente los resultados del pronóstico Herramientas Analíticas Crear la Tabla Estadística del Pronóstico, de lo cual emerge la ventana de la gráfica 9. 30

31 Gráfica 9. Tabla Estadística de Pronóstico La tabla estadística de pronóstico (gráfica 9), permite obtener los resultados de los estadísticos descriptivos básicos de la variable de pronóstico, así como los percentiles que el usuario desee. Recordando en la gráfica 10 el procedimiento de la simulación de Monte Carlo Gráfica 10. Etapas de una Simulación La simulación de Montecarlo tiene varias ventajas entre las cuales tenemos: 31

32 Además de la función estimada, otro resultado de la simulación es una medida del error entre la función calculada a partir de la muestra y la de la población. En efecto, la desviación estándar de la muestra permite tener una medida de la calidad del estimativo, pero también de la mejora en este estimativo a medida que se incrementa el número de experimentos. Así, la potencia del método de simulación de Monte Carlo descansa en su capacidad de entregar estimaciones muy cercanas a la de la población Muestra la frecuencia de los valores estimados Análisis de Certidumbre Estadísticas y Percentiles PARA TENER EN CUENTA Los supuestos son la clave para los procesos de simulación Siempre ponga nombre a cada supuesto Utilice datos si se tienen disponibles Siempre considere las correlaciones posibles 4.2 EJEMPLO DE COSTOS TOTALES La empresa ABC desea hacer una mejor estimación de sus costos de producción dado que se encuentran enfrentados a muchos eventos aleatorios principalmente por la variación de los precios internacionales de las mercancías que usan como materias primas, para eso se usará Risk Simulator como herramienta para poder mejorar en la toma de decisiones. El primer paso es crear un perfil de simulación tal como se explicó en la sección anterior, se usarán simulaciones y una semilla de simulación de A continuación se establece en MS Excel el modelo correspondiente de tipo deterministico. 32

33 En este caso la relación es Costos totales = Costos fijos + Costos Variables, pero los Costos Variables es igual al Costo Unitario * Unidades producidas. El área de producción le comenta a usted la situación de la empresa, en la cual se ha tenido como histórico que el Costo Unitario (CU) han tenido un comportamiento de $ 1 por unidad, llegando a un máximo de $6, pero que en promedio es $3 el valor más común, luego le comentan que las Unidades Producidas (UP) es de mínimo 500 y máximo De acuerdo a lo anterior las celdas de CU y UP se asignaran como Supuestos de Entrada, la primera como una distribución triangular y la segunda como uniforme discreta. Posteriormente el objetivo de la simulación es la celda del Costo Total por lo tanto se selecciona como Pronóstico de Salida 33

34 Se recuerda que para que una celda se pueda definir como de Pronóstico debe tener una función y/o formula que se vincule con las celdas a simular. El modelo quedará visualizado de la siguiente forma: A continuación se realiza la simulación completa dando clic en el botón de Súper Velocidad. 34

35 Por lo tanto ya se puede conocer con un nivel de certeza a cuánto ascenderán los costos totales ante diferentes escenarios. 4.3 VaR por Método de Simulación de Montecarlo Para el cálculo del VaR por simulación de Montecarlo usaremos la ecuación de movimiento Browniano discreta dada por: Donde S es el precio de mercado, μ el rendimiento del activo, t el horizonte de estudio, σ la volatilidad del activo y ε una variable aleatorio normal estándar. AL valor del 95% de la cola derecha se le resta el precio final y este es el VaR para una acción. 4.4 Ejemplo de Evaluación de Proyectos Una empresa de confecciones considera un proyecto de inversión para una nueva planta de confecciones en un distrito de Lima, cuyas ventas se estiman en 30,000 unidades anuales durante los siguientes 5 años, con un precio de venta por unidad de S/.75 y un costo variable unitario de S/.25. Se estima un costo fijo de S/. 630,000. La inversión inicial fue de S/. 35

36 2 800,000. La tasa de descuento que se utiliza es de 15% anual, con un horizonte de 10 años y un valor residual de S/. 350,000. Se pide calcular los indicadores de rentabilidad del Proyecto de Inversión, así como también realizar el análisis de riesgos correspondiente. Se debe considerar los siguientes datos para algunas variables: Escenarios Datos Bajo Medio Alto Volumen de ventas en unidades 27,000 30,000 39,000 Precios unitario Costo unitario El primer paso es crear un perfil de simulación, se usarán simulaciones. A continuación se establece en MS Excel el modelo correspondiente de tipo determinístico. 36

37 En este caso lo que se busca es construir el flujo de caja futuro del proyecto para un horizonte de 10 años, del cual el objetivo fundamental es obtener el valor del VAN. De acuerdo a lo anterior las celdas correspondientes a Volumen de ventas, Precio Unitario y Costo Unitario se asignarán como Supuestos de Entrada, todas como una distribución triangular. 37

38 El objetivo de la simulación es la celda del VAN (tal y como se mencionó líneas arriba) por lo tanto se selecciona como Pronóstico de Salida. A continuación se realiza la simulación completa dando clic en el botón de Súper Velocidad. Usando la gráfica de pronóstico como intervalos de confianza, tenemos: 38

39 Dentro de la Evaluación Económica de Proyectos de Inversión, un tema importante siempre ha sido el garantizar que el VAN sea mayor o igual a cero, dado que esto garantizaría que el proyecto es factible de ejecutarse. En este caso, calculamos la probabilidad de que el VAN sea mayor a Cero, y obtenemos una Certeza del 98% de que esto suceda. 4.5 OPTIMIZACIÓN CON RISK SIMULATOR Cuando se tienen restricciones presupuestales, de capacidad en planta, dinero, etc., el método de optimización genera la mejor solución, mayor rentabilidad ó minimizar el riesgo de una inversión, satisfaciendo ciertas condiciones pre establecidas o especificadas. Por ejemplo: Cuáles acciones colocar en un portafolio, y qué participación darle a cada una. Optimización de Inventarios. Precios óptimos y tasas de regalías Utilización de empleados para planeamiento de la fuerza de trabajo Configuración de máquinas para programación de producción. Optimización del equipo de trabajo para una línea de producción. Localización de bodegas para distribución. Flexibilidad en el diseño de manufacturas. Políticas de tratamiento en administración de residuos. Los procedimientos de optimización son posibles con variables Continuas, discretas y discretas y continuas mezcladas. Los métodos de optimización disponible en Risk Simulator son: Lineal No lineal Estática: Estimados rápidos de un solo punto Dinámica: Simulación con Optimización Estocástica: Múltiples iteraciones con distribuciones de variables de decisión Para realizar un proceso de Optimización con Risk Simulator se debe seguir el siguiente procedimiento: 1. Definir un perfil 39

40 2. Definir variables de decisión 3. Definir variable objetivo 4. Definir las restricciones 5. Ejecutar la optimización 6. Obtener reportes y/o datos El procedimiento de definición de perfiles es similar al de la simulación de Montecarlo DEFINIENDO VARIABLES DECISIÓN Las variables de decisión son aquellas que necesitan ser ajustadas y probadas de acuerdo a unas restricciones que pueden ser un rango de valores discretos o continuos o tomar valores binarios, la combinación de estas variables permite llegar a una optimización de la variable objetivo. Para definir las variables de decisión en la sección de Optimización se da clic sobre el ícono Decisión de lo cual emerge la ventana que se observa en el gráfico 11. Gráfico 11. Variable de Decisión En la celda activa se establecerán los rangos que la variable puede tomar, entre ellos valores continuos o discretos y además está la opción de que la celda tome valores binarios 0 ó 1. Finalmente la celda queda por default resaltada con un color Azul que indica que es una variable de decisión DEFINIENDO VARIABLES OBJETIVO Las variable objetivo son aquellas que se maximizaran o minimizaran de acuerdo al modelo planteado, estas variables deben contener una formula o función que esté relacionada directa o indirectamente con las variables de decisión. 40

41 Al dar clic sobre Objetivo de la sección de Optimización, se debe estar previamente ubicado en la celda que será el objetivo. La ventana emergente (gráfica 12) necesita solamente que se indique el tipo de optimización. Gráfico 12. Variable Objetivo DEFINIENDO RESTRICCIONES La definición de las restricciones puede ser antes o después de la definición de la variable objetivo, las restricciones pueden ser de igualdad =, mayor o igual que >= o menor o igual que <=. Gráfica 13. Definición Restricciones EJECUTAR LA SIMULACIÓN Al finalizar el proceso de definición de variables y restricciones se procede a seleccionar el método de optimización, el cual puede ser estático, dinámico o estocástico, en la gráfica 14 se puede observar las opciones correspondientes. 41

42 Gráfica 14. Configuración Optimización En la ventana Resumen de Optimización del gráfico 14, es posible editar opciones con respecto a la optimización, tales como seleccionar de un conjunto de variables de decisión una o varias, de igual forma para las restricciones y se puede modificar la celda objetivo. Al finalizar la configuración se da clic en OK RESULTADOS DE LA OPTIMIZACIÓN Al finalizar el proceso de optimización se genera una ventana de resultado de la optimización, donde se presenta la gráfica de evolución de la optimización, así como el proceso de iteración correspondiente, en la gráfica 15 se puede observar un ejemplo de una optimización, una vez se tiene el resultado de la optimización se procede a reemplazar los valores iniciales por los valores optimizados. 42

43 Gráfica 15. Resultado de Optimización Finalizado el procedimiento es posible obtener reportes de la misma forma que se realizaba con la simulación de Montecarlo. Una herramienta muy poderosa que tiene Risk Simulator es la posibilidad de ejecutar optimizaciones estocásticas, ésta metodología es la inclusión de simulaciones de Montecarlo y Optimizaciones, la forma de modelación es la vinculación de los temas tratados anteriormente. 4.6 ANÁLISIS DE SENSIBILIDAD Y TORNADO A partir del Risk Simulator se pueden realizar análisis de sensibilidad y de tornado los cuales permiten identificar los factores, variables, supuestos, etc., que pueden influenciar de forma positiva o negativa en la(s) variable(s) objetivo. Para la ejecución de estas herramientas se hace de la siguiente manera, primero se ejecuta el procedimiento de optimización ya sea con o sin simulación, posteriormente se ubica en la celda objetivo de la optimización y en el ícono de Herramientas Analíticas Análisis de Sensibilidad o Análisis Tornado. A continuación en el Simulador de Riesgo Modelos de Ejemplo, seleccione el número 22 Análisis Tornado y Sensibilidad (lineal). 43

44 El ejemplo consiste en un Flujo de Caja de un proyecto de inversión, para realizar el análisis tornado se debe seleccionar una celda objetivo en este caso el Valor Presente Neto, por lo tanto se va a Herramientas Analíticas Análisis Tornado 44

45 El análisis Tornado se realiza previó a las simulaciones dado que va analizar la relación que existe entre todas las variables del modelo y la variable objetivo, para lo cual usa un análisis de escenarios, por defecto el programa hace un incremento y una disminución del 10% sobre el valor base de cada variable en el modelo y observa como ante cambios en cada variable afecta a la variable objetivo. Gráfica 17. Análisis Tornado El reporte generado por el software explica cómo se debe realizar la interpretación y análisis de los resultados, el aporte principal del análisis tornado es que permite analizar cuáles son las variables que más importancia tienen con respecto al objetivo. Esto facilita parametrizar las simulaciones dado que se tendría como prioridad las variables de mayor relevancia dadas por la herramienta Tornado. El análisis de Sensibilidad se realiza posterior a las simulaciones, este procedimiento consiste en realizar múltiples perturbaciones para ver el resultado en la variable objetivo, para realizar el análisis de sensibilidad posteriormente a la simulación se debe ubicar en la celda objetivo ir a Herramientas Analíticas- Análisis de Sensibilidad. 45

46 Gráfica 16. Análisis de Sensibilidad 4.7 PRONÓSTICO Hay una preocupación por conocer lo que va a suceder en el futuro, dado que permite adaptar las acciones presentes a posibles resultados esperados o no deseables. Predecir anticipadamente el futuro de los aspectos de cada proyecto que tienen incertidumbre, a través de la medición de variables económicas, utilizando las herramientas apropiadas para cada variable, escenario o proyecto, las cuales pueden ser cualitativas o cuantitativas Risk Simulator provee al usuario de varias metodologías de pronóstico: Box- Jenkins Arima Regresión Lineal Múltiple Extrapolación No Lineal Pronóstico Estocástico Análisis de Series de Tiempo Cadenas de Markov Modelos GARCH 46

47 4.7.1 Regresión Lineal Uno de los principales objetivos de los modelos de regresión es explicar el comportamiento de un fenómeno variable dependiente a partir de un conjunto de regresores variables independientes. Con frecuencia la forma funcional que define la relación entre la(s) variable(s) dependiente(s) y los regresores ha sido establecida por alguna ciencia o disciplina. Sin duda, por su facilidad de interpretación, los modelos de regresión lineal son los más populares, los más empleados y los más fáciles de interpretar. Los pasos para realizar la regresión son, primero seleccione los datos que se encuentran ordenados en su archivo de Excel, segundo en el Simulador de Riesgo seleccione Pronóstico Análisis de Regresión Tercero, seleccione la variable dependiente, y seleccione si es el caso, varias rezagas o incluir al modelo la transformación logaritmo natural a las variables independientes. Obteniendo un reporte como el siguiente: 47

48 Una vez tenga el modelo estimado y haya evaluada la significancia de cada una de las variables, evalué los supuestos del modelo de regresión lineal, para ello seleccione la base de datos y diríjase a Herramientas Analíticas Herramientas de Diagnóstico, lo que le permitirá evaluar no multicolinealidad, no autocorrelación, homocedasticidad, normalidad, evidencia de procesos estocásticos, valores atípicos, entre otros. Lo que deberá seleccionar es la variable dependiente del modelo, y posteriormente obtendrá un archivo temporal de Excel en el cual encontrará todos los resultados del modelo. 48

49 4.7.2 Análisis de Series de tiempo El análisis de series de tiempo consiste principalmente en identificar los componentes que tiene la serie de tiempo (estacionalidad, tendencia, ciclo y aleatorio) para poder realizar los pronósticos correspondientes. Risk Simulator cuenta con los siguientes modelos de análisis de series de tiempo Por ejemplo se cuenta con el siguiente histórico de ventas y se desea analizar con base en su comportamiento pasado el futuro de las ventas. 49

50 De acuerdo al gráfico se observa un comportamiento tendencial y evidencia de estacionalidad en la serie, para lo cual de acuerdo a los modelos se podría realizar una estimación por el método Aditivo o Multiplicativo de Holt- Winters. Al seleccionar los datos e ir al módulo de pronóstico Análisis de Series de Tiempo emerge la siguiente ventana: 50

51 En la cual el usuario tiene varias posibilidades, entre ellas la primera y más sencilla, y es que el software seleccione el mejor modelo de los 8 posibles y adicionalmente que encuentre los parámetros que minimizan el RMSE (Root Mean Square Error). La segunda opción es que el usuario seleccione el modelo que considera evaluar de acuerdo a los datos, en este caso puede seleccionar entre que el software encuentre los parámetros que minimizan de igual forma el RMSE o por el contrario el usuario puedo ingresarlos manualmente. Al ejecutar Selección Ejemplar Automática 51

52 Se generan dos resultados el primero una tabla con los 8 modelos posibles con sus parámetros y el RMSE correspondiente, la tabla presenta el orden de selección de los modelos, en este caso el modelo seleccionado es un Holt-Winter Multiplicativo, en una hoja adicional se presenta la descripción del modelo y su interpretación similar a la siguiente imagen Pronósticos Box-Jenkins ARIMA Uno de los modelos más usado son los ARIMA (Modelos Autorregresivos (AR) Integrados (I) y de media móvil (MA)), los cuales buscan explicar el comportamiento de una serie por medio de su pasado y de los choques aleatorios o de error que haya sufrido en el tiempo, a este tipo de modelos se denomina dinámico. Para poder realizar un modelo ARIMA se debe partir que la serie es estacionaria, es decir que tanto su media como su varianza no cambian y no dependen del tiempo, se recomienda para este tipo de modelos tamaños muestrales amplios ya que permiten modelar mejor el comportamiento de la variable de estudio. Para el estudio de los modelos ARIMA se usa la metodología de Box Jenkins, el primer paso es la identificación del modelo, segundo la estimación, tercero el diagnóstico y por último el pronóstico identificación de un modelo arima La correcta identificación de un modelo ARIMA requiere poder contar con la paciencia suficiente para poder realizar cambios, pruebas, estimaciones, etc., pero ante todo se debe tener claro que una correcta identificación puede evitar problemas futuros con los demás pasos. 52

53 Antes que nada se debe verificar el supuesto fundamental de los modelos ARIMA y es que la serie sea estacionaria, la primera aproximación es realizar una gráfica de la serie, para este ejemplo se usará una serie del IPP (índice de precios al productor) de Colombia, observemos la gráfica, para pegar una gráfica a Word se da clic derecho sobre el gráfico Copiar se selecciona el formato y se pega en la ubicación deseada. La gráfica nos da una primera conclusión de que la serie no es estacionaria, si se toman diferentes períodos muéstrales las medias y las varianzas serán distintas, cuando una serie es no estacionaria se dice de igual forma que la serie tiene raíz unitaria. Con Risk Simulator usted podrá verificar si la serie es estacionaria por medio de la herramienta de Análisis de Estadísticas en el menú de Herramientas Analíticas. Una vez seleccionados los datos: 53

54 Se debe seleccionar en el menú desplegable de Correr Series de tiempo Emerge una hoja nueva, en este caso se selecciona la hoja de Estocásticos y en la sección de Resumen Estadísticos, se observa la Probabilidad de Ajuste del Modelo Estocástico, si es mayor al 5% indica que la serie es no estacionaria. El otro método es por medio de la autocorrelación, en este mismo archivo se encontrará una hoja con ese nombre, por medio del gráfico de correlaciones se puede determinar si la serie es estacionaria o no dependiendo si la serie decrece lentamente o no. 54

55 Las autocorrelaciones parciales nos indican el componente AR y las simples el componente MA, en este caso dado que se diferenció una vez se dice que la serie es Integrada de orden (1) Estimación Una vez se tenga la variable estacionaria y los posibles modelos identificados se procede a realizar la estimación del o los modelos propuestos. Los resultados de la estimación por RS nos permite revisar los coeficientes, la probabilidad asociada, estadísticos descriptivos y algunas pruebas. El segundo paso de la estimación es verificar la significancia de los rezagos y de los errores en este caso el rezago AR(2) y el MA(1) no son significativos, en los modelos ARIMA al igual que en MCO una variable puede ser la causante de la insignificancia de algunas variables, para ello se recomienda eliminar las variables con mayor probabilidad de ser no significativas Diagnostico El siguiente paso de acuerdo a la metodología de Box Jenkins es realizar la diagnosis del modelo es decir verificar los supuestos del modelo y su correcta especificación y estimación, si 55

56 el modelo no presenta inconvenientes y cumple la teoría se procede a pronosticar o hacer impulso respuesta; en el caso de no cumplir algún supuesto o se presenta una mala definición del modelo se procede al primer paso la identificación del modelo. El primer paso es realizar la gráfica de los residuales y verificar si presentan problemas con su varianza, lo que puede ser efecto de coeficientes no incluidos o de outliers en la historia de la serie, ahora es conveniente realizar una prueba más robusta para ello usamos el Correlograma del modelo estimado, este correlograma es sobre los residuos del modelo si hay algún coeficiente significativo se debe incluir en la estimación. Una vez se tengan los modelos evaluados (recuerde tener por lo menos dos modelos) y que cumplan los supuestos de los modelos ARIMA, se debe seleccionar el mejor modelo ESTIMADO, para ello se usan los criterios de información que RS presenta: AIC (Akaike Information Criteria), BIC o SIC (Bayesian o Schuartz Information Criteria) y Hannan Quinn, el mejor modelo será aquel que tenga los criterios de información más pequeños pronostico Como se mencionó anteriormente debe tener claro el usuario que se quiere con el modelo si una correcta estimación para lo cual para seleccionar el mejor modelo usa los criterios de información, pero si su objetivo es pronosticar se usan los criterios de evaluación de pronóstico. RS imprime los resultados de los estadísticos RMSE, MAE, MAPE y U-Theil para poder evaluar el o los modelos, si se tienen dos o más modelos, el mejor modelo será aquel que tenga éstos estadísticos más pequeños y una U-Theil menor que ESTIMACIÓN POR RS Risk Simulator cuenta con dos herramientas para la estimación de modelos ARIMA, la primera es la AUTO ARIMA, la cual realiza el procedimiento de identificación, estimación, verificación y pronóstico de manera automática. Primero se seleccionan los datos y en el menú de Pronóstico se selecciona AUTO-ARIMA 56

57 RS reporta los modelos que evaluó por medio del siguiente cuadro: Es importante anotar que en esta herramienta RS utiliza el criterio del R 2 herramienta de selección del mejor modelo. ajustado como El reporte incluye una explicación estadísticas del procedimiento realizado por RS y de igual forma presenta los pronósticos del modelo y una gráfica para la estimación y otra para los residuales del modelo. 57

58 La otra forma de estimación es similar a la anterior, en Pronóstico se selecciona la opción ARIMA: 58

59 En este caso el usuario debe ingresar los parámetros del modelo ARIMA, es decir el componente Autorregresivo (AR), el integrado (I) y el de media móvil (MA). Generando un reporte como el siguiente: 4.8. PROCESOS ESTOCÁSTICOS Un Proceso Estocástico en una secuencia de eventos o caminos generados por las leyes de probabilidad. Esto significa que eventos aleatorios pueden ocurrir en el tiempo, pero son regidos por leyes estadísticas y probabilísticas especificas. Los principales Procesos Estocásticos incluyen la Caminata Aleatoria o Proceso Browniano, Regresión a la Media y los Saltos de Difusión. Estos procesos pueden ser utilizados para pronosticas una multitud de variables que aparentemente sigan tendencias aleatorias pero que están restringidas por las 59

60 leyes de la probabilidad. Podemos usar los Procesos Estocásticos del Simulador de Riesgo para simular y crear estos procesos. Estos procesos también pueden ser usados para pronosticar una multitud de datos de series de tiempo que incluyen, precios de acciones, tasas de interés, tasas de inflación, precios del petróleo, precios de la electricidad, p recios de bienes básicos o commodities, y muchos más. Usted tiene dos posibilidades para utilizar la herramienta de procesos estocásticos ubicada en el modulo de pronóstico, la primera es ingresar valores aleatorios en los parámetros de cada modelo para verificar algún tipo de comportamiento, el segundo es ajustar a una serie de datos histórica los parámetros correspondientes. Para la segunda opción debemos ingresar a Herramientas Analíticas Análisis de Estadísticas Y seleccionar la opción de Estimación de Parámetro Estocástico, lo cual nos genera el siguiente reporte: 60

61 Una vez conocidos los parámetros del proceso estocástico, se procederá a realizar los pronósticos correspondientes por la ruta Pronóstico Avanzado - Procesos Estocásticos Una vez se ingresan los parámetros correspondientes se realiza el correspondiente reporte de las simulaciones que realizó el software de acuerdo al modelo y los parámetros ingresados. 61

62 4.9 MODELOS LOGIT- PROBIT TOBIT Las Variables Dependientes Limitadas describen las situaciones donde la variable dependiente contiene datos que están limitados en alcance y rango, como binarias (0 o 1), truncadas, ordenadas o datos censurados. Por ejemplo, dado un conjunto de variables independientes (p.ej., edad, ingreso, educación, cupo de tarjeta de crédito o tenencia de préstamo hipotecario), podemos calcular la probabilidad de incumplimiento utilizando la estimación de máxima verosimilitud (MLE por sus siglas en ingles). La respuesta o variable dependiente Y es binaria, es decir, puede tener solamente dos posibles resultados que denotaremos como 1 y 0 (p.ej., Y puede representar la ausencia/presencia de una condición especifica, cumplimiento/incumplimiento de un préstamo previo, éxito/fracaso de algunos dispositivos, respuesta si/no en estudios, etc.). También tenemos un vector de variables independientes o regresores de X, los cuales se asumen con influencia en el resultado Y. Una típica aproximación con una regresión de mínimos cuadrados ordinarios es incorrecta porque los errores de la regresión son heteroscedasticos y no normales; y los resultados estimados de probabilidad resultantes serian valores sin sentido sobre 1 o debajo de 0. MLE se ocupa de estos problemas de análisis utilizando una rutina de optimización iterativa que maximiza la función logarítmica de verosimilitud cuando las variables dependientes son limitadas. Una regresión Logit o Logística es usada para predecir la probabilidad de ocurrencia de un evento para datos ajustados a una curva logística. Esto es generalizado en el modelo lineal utilizado para la regresión binomial. MLE aplicado en un análisis logístico multivariado binario es usado para modelar variables dependientes para determinar la probabilidad esperada de éxito de pertenecer a un cierto grupo. Los coeficientes estimados por el modelo Logit son cocientes logarítmicos de probabilidad, y no pueden interpretarse directamente como probabilidades. Un rápido cálculo es requerido primero y luego la aproximación es sencilla. Específicamente, el modelo Logit es especificado como Estimado Y= LN[Pi/(1 Pi)] o en cambio,, Pi = EXP(Estimado Y)/(1+EXP(Y Estimado)), y los coeficientes βi son cocientes logarítmicos de probabilidad, a fin de tomar el antilogaritmo o EXP(βi) obtenemos los cocientes de probabilidad de Pi/(1 Pi). Esto significa que un incremento en una unidad de βi incrementa la probabilidad en este monto. Finalmente, la tasa de cambio en la probabilidad dp/dx = βipi(1 Pi). El Error Estándar mide la precisión de los coeficientes, y la t-estadística son los coeficientes de cada Coeficiente respecto a sus errores estándar, los cuales son usados en la prueba de hipótesis para calcular el nivel de significancia de cada parámetro estimado. Para estimar la probabilidad éxito de pertenecer a un grupo especifico (p. ej., predecir si un fumador desarrollara complicaciones pulmonares dado el monto de cigarrillos consumidos por año), simplemente calcule el valor Estimado Y utilizando los coeficientes MLE. Por ejemplo, si el modelo es Y = (Cigarrillos) entonces para una persona que fume paquetes de cigarrillos por año tiene un Y Estimado de (100) = 1.6. Después, calcule la inversa 62

63 del antilogaritmo para el valor encontrado previamente de probabilidad EXP(Y Estimado)/[1 + EXP(Y Estimado)] = EXP(1.6)/(1+ EXP(1.6)) = Por lo tanto una persona tiene un 82.20% de probabilidad de desarrollar algún tipo de complicación pulmonar en vida. Un modelo Probit (algunas veces conocido como modelo Normit) es una alternativa popular de especificación para un modelo binario en cual emplea una función probit utilizando una estimación de máxima verosimilitud y la aproximación es llamada regresión probit. Los modelos de regresión Probit o Logistica tienden a producir predicciones similares, donde los parámetros estimados en una regresión logística son entre 1.6 y 1.8 veces más altos que los correspondientes a los coeficientes de un modelo Probit. La elección de un modelo Probit o Logit es enteramente relacionado con la conveniencia particular, y la principal distinción entre ambos se basa en el hecho que la distribución logística tiene una mayor curtosis (colas gordas) para tener en cuenta en los valores extremos. Por ejemplo, suponga que una familia tiene la decisión de adquirir una vivienda y su respuesta es una variable binaria (comprar o no comprar la vivienda) y depende de una serie de variables independientes Xi como son el ingreso, la edad, tal que Ii = β0 + β1x βnxn, donde el mayor valor de li, significa una mayor probabilidad de ser propietario de la vivienda. Para cada familia, existe un umbral crítico I*, donde si es superado la casa es comprada por alguien más, es decir, la cas ano es comprada, y la probabilidad de salida (P) se asume distribuida normalmente, tal que Pi=CDF(I) utilizando una función de distribución acumulada normal estándar (CDF). Por lo tanto, usa los coeficientes estimados exactamente igual a los de un modelo de regresión, utilizando el valor Estimado Y, y aplicar la distribución normal estándar (usted puede usar la función Excel DISTR.NORM.ESTAND o la herramienta de Análisis de Distribución seleccionando la distribución Normal y ajustando la media en 0 y la desviación estándar en 1). Finalmente, para obtener un Probit o unidad de probabilidad, defina li + 5 (esto es porque siempre la probabilidad Pi < 0.5, el estimado li es negativo, debido al hecho que la distribución normal es simétrica alrededor de una media de cero). El modelo Tobit (Tobit Censurado) es un método de modelación biométrica y econométrica usada para describir la relación entre una variable dependiente no-negativa Yi y una o más variables independientes Xi. Un modelo Tobit es un modelo econométrico en el cual la variable dependiente es censurada; esto es, la variable dependiente es censurada porque los valores debajo de cero no son observados. El modelo Tobit asume que existe una variable inobservable latente Y*. Esta variable es linealmente dependiente de las variables Xi vía un vector de coeficientes βi, que determina sus interrelaciones. En adición, el término del error Ui está distribuido normalmente para capturar la influencia aleatoria en esta relación. La variable observable Yi es definida como la igualdad de la variable latente siempre que las variables latentes sean superiores a cero y Yi es asumido como cero en otro caso. Esto es, Yi = Y* si Y* > 0 y Yi = 0 si Y* = 0. Si el parámetro de relación βi es estimado utilizando una regresión de mínimos cuadrados ordinarios de los observados Yi en Xi, los estimadores de la regresión calculada son inconsistentes y el coeficiente de la pendiente se encuentra insesgada hacia abajo y el intercepto insesgado hacia arriba. Únicamente el MLE podría ser consistente para un modelo Tobit. En el modelo Tobit, se tiene un complemento estadístico llamado Sigma, el cual e equivalente al error estándar de la estimación en una regresión de mínimos cuadrados 63

64 ordinarios y los coeficientes estimados son usados en el mismo sentido que en el análisis de regresión. Usando la siguiente base de datos, seleccione los datos y diríjase a Pronóstico Avanzado Modelo de Máxima Verosimilitud 64

65 Seleccione el modelo correspondiente, por ejemplo, LOGIT, y obtendrá el siguiente resultado: Como se comentó anteriormente, los coeficientes no son interpretados, se debe realizar la transformación Z / 1-Z, para conocer los coeficientes que permiten interpretar el aumento o disminución de probabilidades HERRAMIENTAS ESTADÍSTICAS Y ANALÍTICAS Risk Simulator cuenta con un gran número de herramientas estadísticas y analíticas que le permiten al usuario poder sacar la mejor información posible de sus datos o de sus simulaciones, pronósticos u optimizaciones. Entre las herramientas disponibles tenemos: Ajuste de distribución, simple y múltiple Exportar o Importar datos 65

66 Herramientas de Diagnóstico Análisis de Estadísticas 66

BANCO DE MEXICO. Definiciones básicas de Riesgos

BANCO DE MEXICO. Definiciones básicas de Riesgos BANCO DE MEXICO Definiciones básicas de Riesgos Noviembre 2005 1 ÍNDICE DE RIESGO: 1.1. Medidas de riesgo 1.1.1. Valor en Riesgo (VaR) 1.1.2. Análisis de Estrés 1.2. Riesgo de Mercado 1.2.1. Medidas de

Más detalles

XIII Congreso Latinoamericano de Auditoria Interna y Evaluación n de Riesgos

XIII Congreso Latinoamericano de Auditoria Interna y Evaluación n de Riesgos XIII Congreso Latinoamericano de Auditoria Interna y Evaluación n de Riesgos mayo de de 2009 BASILEA II GESTIÓN DEL EXPOSITOR: Kay Dunlop 1 AGENDA MARCO CONCEPTUAL SISTEMA DE GESTIÓN N DEL RIESGO DE CRÉDITO

Más detalles

Aplicación de los modelos de credit scoring para instituciones microfinacieras.

Aplicación de los modelos de credit scoring para instituciones microfinacieras. Econ. Reynaldo Uscamaita Huillca Aplicación de los modelos de credit scoring para instituciones microfinacieras. OBJETIVO Proporcionar al ejecutivo del sistema financiero un modelo solido que permita tomar

Más detalles

Métodos clave para calcular el Valor en Riesgo

Métodos clave para calcular el Valor en Riesgo [.estrategiafinanciera.es ] Caso de Estudio Métodos clave para calcular el Valor en Riesgo La actividad tesorera es especialmente susceptible al riesgo de mercado llegando a provocar en los últimos tiempos

Más detalles

Administración Integral de Riesgos

Administración Integral de Riesgos Administración Integral de Riesgos COMPASS Investments de México COMPASS INVESTMENTS opera como un Asesor de Inversión Independiente en México desde 1996. A partir del 2004 se convierte en Sociedad Operadora

Más detalles

Gestión de Riesgos- Reporte de Transparencia - 2012

Gestión de Riesgos- Reporte de Transparencia - 2012 Gestión de Riesgos Reporte de Transparencia REPORTE DE TRANSPARENCIA El 23 de mayo de 2011, el Banco Central de la República Argentina (BCRA.) emitió la Comunicación A N 5203, en la cual estableció los

Más detalles

Índice. Introducción. Modelización del Riesgo de Crédito. Cómo llevarlo a la práctica? Conclusiones. G r o u p

Índice. Introducción. Modelización del Riesgo de Crédito. Cómo llevarlo a la práctica? Conclusiones. G r o u p Gestionando el riesgo de crédito Herramientas para contener el incremento de la morosidad en las carteras David Fernández Pagerols Director de Metodologías Cuantitativas AIS Group 2002-2012 Índice Introducción

Más detalles

Retos de la Proliferación de Modelos. 2 de Octubre 2012

Retos de la Proliferación de Modelos. 2 de Octubre 2012 Retos de la Proliferación de Modelos 2 de Octubre 2012 ÍNDICE Introducción Tipos de modelos Problemática de gestión Conclusiones Introducción 3 Aunque hay créditos desde hace 5000 años, los modelos sólo

Más detalles

CAPITULO II. MARCO TEÓRICO. Actualmente todas las personas que tengan un capital considerable pueden invertir en

CAPITULO II. MARCO TEÓRICO. Actualmente todas las personas que tengan un capital considerable pueden invertir en CAPITULO II. MARCO TEÓRICO II.1. Mercados Financieros II.1.1 Marco histórico Actualmente todas las personas que tengan un capital considerable pueden invertir en acciones a fin de obtener ganancias rápidas

Más detalles

Con el fin de obtener los datos, se procede con las siguientes instrucciones:

Con el fin de obtener los datos, se procede con las siguientes instrucciones: Capitulo 3. La predicción de beneficios del mercado bursátil Este segundo caso de estudio va más allá en el uso de técnicas de minería de datos. El dominio específico utilizado para ilustrar estos problemas

Más detalles

Asimismo el esquema se complementa con políticas y procedimientos específicos para cada uno de estos riesgos (Financiero, crediticio, operacional).

Asimismo el esquema se complementa con políticas y procedimientos específicos para cada uno de estos riesgos (Financiero, crediticio, operacional). POLITICAS DE GERENCIAMIENTO DE RIESGOS En el marco de la política de Gobierno Societario, el Directorio de Banco Macro S.A. aprobó la conformación del Comité de Gestión de Riesgos, entre cuyas responsabilidades

Más detalles

Análisis de riesgo e incertidumbre

Análisis de riesgo e incertidumbre Análisis de riesgo e incertidumbre Eduardo Contreras Enero 2009 Introducción a riesgo e incertidumbre Dos Conceptos: Riesgo:» Información de naturaleza aleatórea, las probabilidades de ocurrencia de eventos

Más detalles

Lección n 5. Modelos de distribución n potencial de especies

Lección n 5. Modelos de distribución n potencial de especies Lección n 5. Modelos de distribución n potencial de especies 1. Elaboración de modelos de distribución de especies. a. Planteamiento. El modelado del nicho ambiental se basa en el principio de que la distribución

Más detalles

Matriz de Riesgo, Evaluación y Gestión de Riesgos

Matriz de Riesgo, Evaluación y Gestión de Riesgos Matriz de Riesgo, Evaluación y Gestión de Riesgos Cualquier actividad que el ser humano realice está expuesta a riesgos de diversa índole los cuales influyen de distinta forma en los resultados esperados.

Más detalles

Statgraphics Centurión

Statgraphics Centurión Facultad de Ciencias Económicas y Empresariales. Universidad de Valladolid 1 Statgraphics Centurión I.- Nociones básicas El paquete Statgraphics Centurión es un programa para el análisis estadístico que

Más detalles

Prácticas de Simulación (Sistemas) Autor: M. en C. Luis Ignacio Sandoval Paéz

Prácticas de Simulación (Sistemas) Autor: M. en C. Luis Ignacio Sandoval Paéz 1 Prácticas de Simulación (Sistemas) Autor: M. en C. Luis Ignacio Sandoval Paéz 2 ÍNDICE Introducción 3 Aplicaciones de la Simulación 3 La Metodología de la Simulación por Computadora 5 Sistemas, modelos

Más detalles

Estimaciones contables críticas y juicios en la aplicación de políticas contables

Estimaciones contables críticas y juicios en la aplicación de políticas contables EJEMPLOS DE REVELACIONES BAJO NIIF 12 Estimaciones contables críticas y juicios en la aplicación de políticas contables Determinación del control sobre entidades participadas (NIIF 12.7-9) Los indicadores

Más detalles

ÍNDICE DE CONTENIDOS. Capítulo 1 Presentación

ÍNDICE DE CONTENIDOS. Capítulo 1 Presentación ÍNDICE DE CONTENIDOS Capítulo 1 Presentación Capítulo 2 Introducción al proceso de decisión bajo riesgo e incertidumbre 2.1. Resumen del capítulo 2.2. Introducción 2.3. El concepto de riesgo e incertidumbre

Más detalles

Las Matemáticas En Ingeniería

Las Matemáticas En Ingeniería Las Matemáticas En Ingeniería 1.1. Referentes Nacionales A nivel nacional se considera que el conocimiento matemático y de ciencias naturales, sus conceptos y estructuras, constituyen una herramienta para

Más detalles

Determinación de primas de acuerdo al Apetito de riesgo de la Compañía por medio de simulaciones

Determinación de primas de acuerdo al Apetito de riesgo de la Compañía por medio de simulaciones Determinación de primas de acuerdo al Apetito de riesgo de la Compañía por medio de simulaciones Introducción Las Compañías aseguradoras determinan sus precios basadas en modelos y en información histórica

Más detalles

Uso de cópulas en la estimación del capital económico

Uso de cópulas en la estimación del capital económico www.pwc.es Uso de cópulas en la estimación del capital económico Centre de Recerca Matèmatica, CRM Bellaterra, Barcelona 22 de febrero de 2.013 Índice 1.- Capital regulatorio: modelo de Merton 2.- Capital

Más detalles

NORMA DE ADMINISTRACIÓN DE RIESGO DE CRÉDITO. Segunda parte

NORMA DE ADMINISTRACIÓN DE RIESGO DE CRÉDITO. Segunda parte NORMA DE ADMINISTRACIÓN DE RIESGO DE CRÉDITO Segunda parte ADMINISTRACIÓN DE RIESGO DE CREDITO Es la posibilidad de pérdida debido al incumplimiento del prestatario o la contraparte en operaciones directas,

Más detalles

CARTERAS DE EMPRESAS. SISTEMAS DE RATING. CONSTRUCCION Y EVALUACION

CARTERAS DE EMPRESAS. SISTEMAS DE RATING. CONSTRUCCION Y EVALUACION CARTERAS DE EMPRESAS. SISTEMAS DE RATING. CONSTRUCCION Y EVALUACION Dirección General de Supervisión Grupo de Tesorería y Modelos de Gestión de Riesgos Luis González Mosquera Antonio Marcelo Antuña Raúl

Más detalles

Políticas y Metodologías para la. Administración de Riesgos

Políticas y Metodologías para la. Administración de Riesgos Políticas y Metodologías para la Administración de Riesgos Administración de Riesgos Órganos Facultados El Consejo de Administración es el órgano máximo para la administración de Riesgos de la Operadora,

Más detalles

NT8. El Valor en Riesgo (VaR)

NT8. El Valor en Riesgo (VaR) NT8. El Valor en Riesgo (VaR) Introducción VaR son las siglas de Valor en el Riesgo (Value at Risk) y fue desarrollado por la división RiskMetric de JP Morgan en 1994. es una manera de medir el riesgo

Más detalles

Tutorial - Parte 2: Scoring

Tutorial - Parte 2: Scoring Introducción Tutorial - Parte 2: Scoring En este segundo tutorial aprenderá lo que significa un modelo de Scoring, verá cómo crear uno utilizando Powerhouse Analytics y finalmente a interpretar sus resultados.

Más detalles

Cómo obtener un Modelo de Regresión Logística Binaria con SPSS

Cómo obtener un Modelo de Regresión Logística Binaria con SPSS Universitat de de Barcelona. Institut de de Ciències de de l Educació Cómo obtener un Modelo de Regresión Logística Binaria con SPSS Vanesa Berlanga-Silvente y Ruth Vilà-Baños Fecha de presentación:

Más detalles

CRITERIOS DE CLASIFICACIÓN. Criterio: Clasificación de Compañías Holdings y sus Filiales. Creación: Diciembre 2014 Última Actualización: N/A

CRITERIOS DE CLASIFICACIÓN. Criterio: Clasificación de Compañías Holdings y sus Filiales. Creación: Diciembre 2014 Última Actualización: N/A Este documento muestra el enfoque aplicado por ICR para clasificar el riesgo de compañías holdings y sus filiales. Los términos compañía holding (holding) y compañía matriz (matriz) son similares, con

Más detalles

Matemáticas 2º BTO Aplicadas a las Ciencias Sociales

Matemáticas 2º BTO Aplicadas a las Ciencias Sociales Matemáticas 2º BTO Aplicadas a las Ciencias Sociales CONVOCATORIA EXTRAORDINARIA DE JUNIO 2014 MÍNIMOS: No son contenidos mínimos los señalados como de ampliación. I. PROBABILIDAD Y ESTADÍSTICA UNIDAD

Más detalles

UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN FACULTAD DE MIAS ESCUELA DE LA INGENIERÍA DE LA ORGANIZACIÓN

UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN FACULTAD DE MIAS ESCUELA DE LA INGENIERÍA DE LA ORGANIZACIÓN UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN FACULTAD DE MIAS ESCUELA DE LA INGENIERÍA DE LA ORGANIZACIÓN TALLER PREPARATORIO: SEGUNDO EXAMEN DE INVERSIONES BAJO RIESGO 1. Usted es el encargado de administrar

Más detalles

HASTA DONDE LAS FINANZAS SE PUEDEN CONTAR. Asamblea Xeral da SGPAEIO 16 de febrero de 2013

HASTA DONDE LAS FINANZAS SE PUEDEN CONTAR. Asamblea Xeral da SGPAEIO 16 de febrero de 2013 HASTA DONDE LAS FINANZAS SE PUEDEN CONTAR Asamblea Xeral da SGPAEIO 16 de febrero de 2013 Silvia Barco Tato Directora de Control Financiero y Middle Office en Banco Gallego Introducción ÍNDICE Finanzas

Más detalles

DISCIPLINA DE MERCADO (Comunicación A 5394 BCRA)

DISCIPLINA DE MERCADO (Comunicación A 5394 BCRA) DISCIPLINA DE MERCADO (Comunicación A 5394 BCRA) La presente publicación tiene como objetivo que los participantes del mercado puedan evaluar la información referida al capital, las exposiciones al riesgo,

Más detalles

Instrumentos Financieros: Información a Revelar

Instrumentos Financieros: Información a Revelar Norma Internacional de Información Financiera 7 Instrumentos Financieros: Información a Revelar En abril de 2001 el Consejo de Normas Internacionales de Contabilidad (IASB) adoptó la NIC 30 Información

Más detalles

ANÁLISIS DISCRIMINANTE

ANÁLISIS DISCRIMINANTE ANÁLISIS DISCRIMINANTE ANÁLISIS DISCRIMINANTE 1. Introducción 2. Etapas 3. Caso práctico Análisis de dependencias introducción varias relaciones una relación 1 variable dependiente > 1 variable dependiente

Más detalles

Introducción al @RISK 5.7

Introducción al @RISK 5.7 Introducción al @RISK 5.7 Javier Ordóñez, PhD Director de Soluciones Personalizadas Riesgo» Riesgo: Un escenario en donde existe una posibilidad de desviación respecto de un resultado deseado o esperado»

Más detalles

CONTENIDOS MÍNIMOS BACHILLERATO

CONTENIDOS MÍNIMOS BACHILLERATO CONTENIDOS MÍNIMOS BACHILLERATO I.E.S. Vasco de la zarza Dpto. de Matemáticas CURSO 2013-14 ÍNDICE Primero de Bachillerato de Humanidades y CCSS...2 Primero de Bachillerato de Ciencias y Tecnología...5

Más detalles

Norma Internacional de Contabilidad 13 Medición del Valor Razonable

Norma Internacional de Contabilidad 13 Medición del Valor Razonable Norma Internacional de Contabilidad 13 Medición del Valor Razonable Objetivo 1 Esta NIIF: (b) define valor razonable; establece en una sola NIIF un marco para la medición del valor razonable; y (c) requiere

Más detalles

INDICE Prefacio 1 Introducción 2 Organizaciones de los datos para que transmitan un significado: tablas y graficas

INDICE Prefacio 1 Introducción 2 Organizaciones de los datos para que transmitan un significado: tablas y graficas INDICE Prefacio 1 Introducción 1-1 Preámbulo 1-2 Reseña histórica 1-3 Subdivisiones de la estadística 1-4 Estrategia, suposiciones y enfoque 2 Organizaciones de los datos para que transmitan un significado:

Más detalles

CURSO DE GESTIÓN DEL RIESGO EN LOS MERCADOS FINANCIEROS. Visión Práctica de la Gestión del Riesgo de Mercado en una entidad bancaria 12 diciembre 2013

CURSO DE GESTIÓN DEL RIESGO EN LOS MERCADOS FINANCIEROS. Visión Práctica de la Gestión del Riesgo de Mercado en una entidad bancaria 12 diciembre 2013 CURSO DE GESTIÓN DEL RIESGO EN LOS MERCADOS FINANCIEROS Visión Práctica de la Gestión del Riesgo de Mercado en una entidad bancaria 12 diciembre 2013 Índice 1. Introducción 2. Riesgo de Mercado Visión

Más detalles

MONEDA. asignación ESTRATÉGICA. de activos para BANCOS CENTRALES 1 MONEDA

MONEDA. asignación ESTRATÉGICA. de activos para BANCOS CENTRALES 1 MONEDA MONEDA asignación ESTRATÉGICA de activos para BANCOS CENTRALES 1 MONEDA MONEDA I. IMPORTANCIA DE LA ASIGNACIÓN ESTRATÉGICA DE ACTIVOS (AEA) EN LA ADMINISTRACIÓN DE LAS RESERVAS INTERNACIONALES Las reservas

Más detalles

Aspectos Cualitativos Relacionados con la Administración Integral de Riesgos

Aspectos Cualitativos Relacionados con la Administración Integral de Riesgos 31 de Agosto de 2015 Aspectos Cualitativos Relacionados con la Administración Integral de Riesgos Las debilidades en el sistema financiero de un país pueden amenazar su estabilidad financiera y económica.

Más detalles

Norma Internacional de Información Financiera 13 Medición del Valor Razonable

Norma Internacional de Información Financiera 13 Medición del Valor Razonable Norma Internacional de Información Financiera 13 Medición del Valor Razonable Objetivo 1 Esta NIIF: define valor razonable; establece en una sola NIIF un marco para la medición del valor razonable; y requiere

Más detalles

1. INTRODUCCIÓN AL CONCEPTO DE LA INVESTIGACIÓN DE MERCADOS 1.1. DEFINICIÓN DE INVESTIGACIÓN DE MERCADOS 1.2. EL MÉTODO CIENTÍFICO 2.

1. INTRODUCCIÓN AL CONCEPTO DE LA INVESTIGACIÓN DE MERCADOS 1.1. DEFINICIÓN DE INVESTIGACIÓN DE MERCADOS 1.2. EL MÉTODO CIENTÍFICO 2. 1. INTRODUCCIÓN AL CONCEPTO DE LA INVESTIGACIÓN DE MERCADOS 1.1. DEFINICIÓN DE INVESTIGACIÓN DE MERCADOS 1.2. EL MÉTODO CIENTÍFICO 2. GENERALIDADES SOBRE LAS TÉCNICAS DE INVESTIGACIÓN SOCIAL Y DE MERCADOS

Más detalles

Módulo 3. Metodología de medición y cuantificación del riesgo de crédito

Módulo 3. Metodología de medición y cuantificación del riesgo de crédito Módulo 3. Metodología de medición y cuantificación DR Instituto Tecnológico y de Estudios Superiores de Monterrey, Universidad Virtual México, 2010 1 Introducción y conceptos fundamentales Introducción

Más detalles

Norma Internacional de Información Financiera 13 Medición del Valor Razonable

Norma Internacional de Información Financiera 13 Medición del Valor Razonable Norma Internacional de Información Financiera 13 Medición del Valor Razonable Objetivo 1 Esta NIIF: define valor razonable; establece en una sola NIIF un marco para la medición del valor razonable; y requiere

Más detalles

ESTADÍSTICA APLICADA Y ESTADÍSTICA PARA EL SECTOR PÚBLICO

ESTADÍSTICA APLICADA Y ESTADÍSTICA PARA EL SECTOR PÚBLICO Máster en ESTADÍSTICA APLICADA Y ESTADÍSTICA PARA EL SECTOR PÚBLICO Temario MÓDULO 0: HOMOGENEIZACIÓN Homogeneización en bases matemáticas 3,0 Cr. ECTS Espacios de Medida Algebra. Matrices y Determinantes

Más detalles

Estadística I. Finanzas y Contabilidad

Estadística I. Finanzas y Contabilidad Estadística I. Finanzas y Contabilidad Práctica 1: INTRODUCCIÓN AL USO DE SOFTWARE ESTADÍSTICO OBJETIVO: Los estudiantes deberán conocer el funcionamiento de la Hoja de Cálculo EXCEL y utilizarla para

Más detalles

SIMULACIÓN CAPITULO 3 LECTURA 6.3. SIMULACIÓN Y ANÁLISIS DE MODELOS ESTOCÁSTICOS Azarang M., Garcia E. Mc. Graw Hill. México 3.

SIMULACIÓN CAPITULO 3 LECTURA 6.3. SIMULACIÓN Y ANÁLISIS DE MODELOS ESTOCÁSTICOS Azarang M., Garcia E. Mc. Graw Hill. México 3. LECTURA 6.3 SIMULACIÓN Y ANÁLISIS DE MODELOS ESTOCÁSTICOS Azarang M., Garcia E. Mc. Graw Hill. México CAPITULO 3 SIMULACIÓN 3.1 INTRODUCCIÓN Simulación es el desarrollo de un modelo lógico-matemático de

Más detalles

Gestión de los Riesgos Financieros. Resolución No. 136.03

Gestión de los Riesgos Financieros. Resolución No. 136.03 Gestión de los Riesgos Financieros Anexo A Resolución No. 136.03 Visto que una sólida y adecuada administración de riesgo garantiza el equilibrio operativo de las instituciones financieras, lo que permite

Más detalles

Universidad del CEMA Master en Finanzas 2006

Universidad del CEMA Master en Finanzas 2006 Universidad del CEMA Master en Finanzas 2006 La Simulación como una herramienta para el manejo de la incertidumbre Fabián Fiorito ffiorito@invertironline.com Tel.: 4000-1400 Hoy en día la simulación es

Más detalles

ANÁLISIS DE SENSIBILIDAD OBJETIVO DEL ANÁLISIS

ANÁLISIS DE SENSIBILIDAD OBJETIVO DEL ANÁLISIS Estudio Financiero ANÁLISIS DE SENSIBILIDAD OBJETIVO DEL ANÁLISIS Medir cuan sensible es la evaluación financiera a través de variaciones en las principales variables críticas del proyecto, de forma que

Más detalles

Capítulo 15. Análisis de varianza factorial El procedimiento Modelo lineal general: Univariante

Capítulo 15. Análisis de varianza factorial El procedimiento Modelo lineal general: Univariante Capítulo 15 Análisis de varianza factorial El procedimiento Modelo lineal general: Univariante Los modelos factoriales de análisis de varianza (factorial = más de un factor) sirven para evaluar el efecto

Más detalles

CENTRO DE FORMACIÓN DE DE BOLSAS Y Y MERCADOS ESPAÑOLES. MatLab. Introducción a la programación en Matlab para la medición de riesgos financieros

CENTRO DE FORMACIÓN DE DE BOLSAS Y Y MERCADOS ESPAÑOLES. MatLab. Introducción a la programación en Matlab para la medición de riesgos financieros CENTRO DE FORMACIÓN DE DE BOLSAS Y Y MERCADOS ESPAÑOLES MatLab Introducción a la programación en Matlab para la medición de riesgos financieros CD 2 MatLab Introducción a la programación en Matlab para

Más detalles

ADMINISTRACIÓN DE RIESGOS FINANCIEROS EN EL MERCADO DE ENERGÍA MAYORISTA. Jornada de Comercialización de Energía Eléctrica 8 de Octubre de 2010

ADMINISTRACIÓN DE RIESGOS FINANCIEROS EN EL MERCADO DE ENERGÍA MAYORISTA. Jornada de Comercialización de Energía Eléctrica 8 de Octubre de 2010 ADMINISTRACIÓN DE RIESGOS FINANCIEROS EN EL MERCADO DE ENERGÍA MAYORISTA Jornada de Comercialización de Energía Eléctrica 8 de Octubre de 2010 CONTENIDO Identificación de Riesgos Financieros en el MEM

Más detalles

Comparación de proporciones

Comparación de proporciones 11 Comparación de proporciones Neus Canal Díaz 11.1. Introducción En la investigación biomédica se encuentran con frecuencia datos o variables de tipo cualitativo (nominal u ordinal), mediante las cuales

Más detalles

Colección Mercados M-2

Colección Mercados M-2 El VaR Pablo García Estévez Diciembre 2008. M-2 1. Introducción VaR son las siglas de Valor en el Riesgo (Value at Risk) y fue desarrollado por la división RiskMetric de JP Morgan en 1994. El VaR es una

Más detalles

DYANE Versión 4 Diseño y Análisis de Encuestas

DYANE Versión 4 Diseño y Análisis de Encuestas DYANE Versión 4 Diseño y Análisis de Encuestas Miguel Santesmases Mestre 1. DESCRIPCIÓN GENERAL DEL PROGRAMA DYANE 1. FINALIDAD Y MÉTODO DEL PROGRAMA DYANE (Diseño y Análisis de Encuestas) es un programa

Más detalles

Norma Internacional de Información Financiera 13 Valoración del valor razonable

Norma Internacional de Información Financiera 13 Valoración del valor razonable Norma Internacional de Información Financiera 13 Valoración del valor razonable Objetivo 1 Esta NIIF: define valor razonable, establece en una única NIIF un marco para la valoración del valor razonable,

Más detalles

EBA: primera guía de los test de estrés

EBA: primera guía de los test de estrés EBA: primera guía de los test de estrés Esta semana la autoridad bancaria europea (EBA) ha publicado el primer borrador sobre la metodología que aplicará en los test de estrés, desglosando los riesgos

Más detalles

Administración Integral de Riesgos Política general, metodología e información cuantitativa

Administración Integral de Riesgos Política general, metodología e información cuantitativa Administración Integral de Riesgos Política general, metodología e información cuantitativa HSBC Global Asset Management (México), Grupo Financiero HSBC Enero de 2013 PUBLIC Contenido 1. Política general

Más detalles

Mejores prácticas existentes en auditorías de riesgo de crédito Oscar Urzúa KPMG

Mejores prácticas existentes en auditorías de riesgo de crédito Oscar Urzúa KPMG Mejores prácticas existentes en auditorías de riesgo de crédito Oscar Urzúa KPMG Índice a) Programa de trabajo tradicional b) Nuevos modelamientos de crédito c) Nuevo programa de trabajo d) Mejores practicas

Más detalles

Norma de Información Financiera. NIF A 6. Reconocimiento y valuación

Norma de Información Financiera. NIF A 6. Reconocimiento y valuación Objetivos Norma de Información Financiera NIF A 6. Reconocimiento y valuación Establecer los criterios generales que deben utilizarse en la valuación, tanto en el reconocimiento inicial como en el posterior,

Más detalles

Metodología de Calificación para Bancos

Metodología de Calificación para Bancos Metodología de Calificación para Bancos México Mayo 2009 Este manual es propiedad exclusiva de HR Ratings de México S.A. de C.V. y el contenido del mismo es confidencial Página 1 de 36 Índice Introducción...

Más detalles

CREDIT SCORING: Enfoque y ventajas para las instituciones. financieras. Parte I

CREDIT SCORING: Enfoque y ventajas para las instituciones. financieras. Parte I [.estrategiafinanciera.es ] CREDIT SCORING: Enfoque y ventajas para las instituciones financieras. Parte I Un sistema de scoring preciso al que se le haga un seguimiento correcto representa un instrumento

Más detalles

Análisis de los determinantes del riesgo de crédito. Aplicación de técnicas emergentes en el marco de los acuerdos de Basilea II y Solvencia II

Análisis de los determinantes del riesgo de crédito. Aplicación de técnicas emergentes en el marco de los acuerdos de Basilea II y Solvencia II REVISTA ESPAÑOLA DE FINANCIACIÓN Y CONTABILIDAD Vol. XXXVI, n.º 135 julio-septiembre 2007 pp. 649-653 649 Análisis de los determinantes del riesgo de crédito. Aplicación de técnicas emergentes en el marco

Más detalles

ASIGNATURA: MATEMÁTICAS APL.CIENC.SOCIALES 1º BACHILLERATO. Unidad 1 Números Reales

ASIGNATURA: MATEMÁTICAS APL.CIENC.SOCIALES 1º BACHILLERATO. Unidad 1 Números Reales ASIGNATURA: MATEMÁTICAS APL.CIENC.SOCIALES 1º BACHILLERATO Unidad 1 Números Reales Utilizar los números enteros, racionales e irracionales para cuantificar situaciones de la vida cotidiana. Aplicar adecuadamente

Más detalles

Administración Integral de Riesgos

Administración Integral de Riesgos Administración Integral de Riesgos Política General, Metodología e Información Cuantitativa. Principal Fondos de Inversión S.A. de C.V., Operadora de Fondos de Inversión, Principal Grupo Financiero Julio

Más detalles

1. PRESENTACIÓN GLOBAL LEAN.

1. PRESENTACIÓN GLOBAL LEAN. GLOBAL LEAN APPS 1. PRESENTACIÓN GLOBAL LEAN. GLOBALLEAN apuesta por mejorar la competitividad de las empresas. Y una herramienta clave para conseguir mejoras de competitividad que deriven en resultados

Más detalles

UNIDAD 4: MEDIDAS DE TENDENCIA CENTRAL

UNIDAD 4: MEDIDAS DE TENDENCIA CENTRAL UNIDAD 4: MEDIDAS DE TENDENCIA CENTRAL Objetivo terminal: Calcular e interpretar medidas de tendencia central para un conjunto de datos estadísticos. Objetivos específicos: 1. Mencionar las características

Más detalles

CAPITULO I. INTRODUCCIÓN. En el presente capítulo expondremos una breve introducción de lo que tratará nuestra

CAPITULO I. INTRODUCCIÓN. En el presente capítulo expondremos una breve introducción de lo que tratará nuestra CAPITULO I. INTRODUCCIÓN En el presente capítulo expondremos una breve introducción de lo que tratará nuestra investigación. Primero plantearemos los diversos problemas que enfrentamos a la hora de invertir,

Más detalles

Técnicas de análisis para el uso de resultados de encuestas y estudios aplicados al VIH/sida. Por: Prof. Elena del C. Coba

Técnicas de análisis para el uso de resultados de encuestas y estudios aplicados al VIH/sida. Por: Prof. Elena del C. Coba Técnicas de análisis para el uso de resultados de encuestas y estudios aplicados al VIH/sida Por: Prof. Elena del C. Coba Encuestas y estudios aplicados al VIH/sida Definir la fuente de los datos: Datos

Más detalles

Asset Allocation. Introducción. tradicionales de minimización de riesgo y maximización de beneficios con el contexto actual de los mercados.

Asset Allocation. Introducción. tradicionales de minimización de riesgo y maximización de beneficios con el contexto actual de los mercados. Introducción Dando un vistazo a la década pasada, el tema relevante en los mercados no eran los modelos teóricos para determinar el riesgo y el retorno de los activos sino los cambios en el mercado y las

Más detalles

ANÁLISIS DISCRIMINANTE APLICADO AL PROBLEMA DE CREDIT SCORING

ANÁLISIS DISCRIMINANTE APLICADO AL PROBLEMA DE CREDIT SCORING ANÁLISIS DISCRIMINANTE APLICADO AL PROBLEMA DE CREDIT SCORING RESUMEN JUAN MANUEL RIVAS CASTILLO En este documento se emplea el análisis discriminante, que es una técnica del análisis multivariado utilizada

Más detalles

Capítulo 3. Análisis de Regresión Simple. 1. Introducción. Capítulo 3

Capítulo 3. Análisis de Regresión Simple. 1. Introducción. Capítulo 3 Capítulo 3 1. Introducción El análisis de regresión lineal, en general, nos permite obtener una función lineal de una o más variables independientes o predictoras (X1, X2,... XK) a partir de la cual explicar

Más detalles

VALOR RAZONABLE DE INSTRUMENTOS FINANCIEROS

VALOR RAZONABLE DE INSTRUMENTOS FINANCIEROS Hoja 1 CAPÍTULO 7-12 VALOR RAZONABLE DE INSTRUMENTOS FINANCIEROS Las presentes normas se refieren a la determinación del valor razonable para instrumentos financieros en general, sean estos de deuda o

Más detalles

CASA DE BOLSA CREDIT SUISSE MEXICO, S. A. Grupo Financiero Credit Suisse México

CASA DE BOLSA CREDIT SUISSE MEXICO, S. A. Grupo Financiero Credit Suisse México CASA DE BOLSA CREDIT SUISSE MEXICO, S. A. Grupo Financiero Credit Suisse México Comentarios y Análisis de la Administración Sobre los Resultados de Operación y Situación Financiera 31 de Marzo de 2013

Más detalles

Administración del Riesgo Operacional

Administración del Riesgo Operacional Basilea Septiembre 1998 Administración del Riesgo Operacional Recientemente, el ha iniciado un trabajo relativo al riesgo operacional. El manejo de tal riesgo se está volviendo una característica importante

Más detalles

Criterios Generales de Solvencia. Administración de Activos

Criterios Generales de Solvencia. Administración de Activos Criterios Generales de Solvencia Administración de Activos Los criterios generales desarrollados por la ASSAL pretenden brindar al supervisor una base de principios de aplicación internacional en materia

Más detalles

Socioestadística I Análisis estadístico en Sociología

Socioestadística I Análisis estadístico en Sociología Análisis estadístico en Sociología 1. INTRODUCCIÓN. Definición e historia. 1.1. Que es la Sociestadística?. La estadística es la ciencias de las regularidades que se observan en conjuntos de fenómenos

Más detalles

Modelo de Supervisión Basada en Riesgos (SBR) SISTEMA DE EVALUACIÓN DE RIESGOS Y ORIENTACIÓN DE LA ACTITUD DE SUPERVISIÓN

Modelo de Supervisión Basada en Riesgos (SBR) SISTEMA DE EVALUACIÓN DE RIESGOS Y ORIENTACIÓN DE LA ACTITUD DE SUPERVISIÓN Modelo de Supervisión Basada en Riesgos (SBR) SISTEMA DE EVALUACIÓN DE RIESGOS Y ORIENTACIÓN DE LA ACTITUD DE SUPERVISIÓN Superintendencia de Pensiones Junio de 2010 Índice de Contenidos LA SUPERINTENDENCIA

Más detalles

DISEÑOS DE INVESTIGACIÓN Y ANÁLISIS DE DATOS [TEMA

DISEÑOS DE INVESTIGACIÓN Y ANÁLISIS DE DATOS [TEMA 2011 UNED DISEÑOS DE INVESTIGACIÓN Y ANÁLISIS DE DATOS [TEMA 7] Diseños con más de dos grupos independientes. Análisis de varianza con dos factores completamente aleatorizados 1 Índice 7.1 Introducción...

Más detalles

A veces pueden resultar engañosas ya que según el método de cálculo, las rentabilidades pasadas pueden ser diferentes. Un ejemplo:

A veces pueden resultar engañosas ya que según el método de cálculo, las rentabilidades pasadas pueden ser diferentes. Un ejemplo: MÉTODOS DE GESTIÓN DE UNA CARTERA DE VALORES RENTABILIDAD Y VOLATILIDAD RENTABILIDAD La rentabilidad de un activo es la suma de las plusvalías generadas y cobradas y los dividendos pagados, es decir puede

Más detalles

Algoritmos de minería de datos incluidos en SQL Server 2008 1. Algoritmo de árboles de decisión de Microsoft [MIC2009a] Cómo funciona el algoritmo

Algoritmos de minería de datos incluidos en SQL Server 2008 1. Algoritmo de árboles de decisión de Microsoft [MIC2009a] Cómo funciona el algoritmo 1 Algoritmos de minería de datos incluidos en SQL Server 2008 Los algoritmos que aquí se presentan son: Árboles de decisión de Microsoft, Bayes naive de Microsoft, Clústeres de Microsoft, Serie temporal

Más detalles

Metodología de Clasificación. Títulos de Deuda de Securitización Respaldados con Tarjetas de Crédito

Metodología de Clasificación. Títulos de Deuda de Securitización Respaldados con Tarjetas de Crédito Metodología de Clasificación Títulos de Deuda de Securitización Respaldados con Tarjetas de Crédito Originación de los Créditos y Administración Revisión del Originador o Vendedor/Administrador El proceso

Más detalles

MODELOS DE CÁLCULO DE LA VOLATILIDAD *

MODELOS DE CÁLCULO DE LA VOLATILIDAD * MODELOS DE CÁLCULO DE LA VOLATILIDAD * Uno de los objetivos principales perseguidos en el análisis de series temporales es poder predecir de la manera más aproximada el comportamiento futuro que pueden

Más detalles

Análisis y cuantificación del Riesgo

Análisis y cuantificación del Riesgo Análisis y cuantificación del Riesgo 1 Qué es el análisis del Riesgo? 2. Métodos M de Análisis de riesgos 3. Método M de Montecarlo 4. Modelo de Análisis de Riesgos 5. Qué pasos de deben seguir para el

Más detalles

Contenido. Horizontes temporales de la previsión La influencia del ciclo de vida del producto

Contenido. Horizontes temporales de la previsión La influencia del ciclo de vida del producto Previsión Contenido Qué es la previsión? Horizontes temporales de la previsión La influencia del ciclo de vida del producto Tipos de previsiones La importancia estratégica de la previsión Recursos humanos

Más detalles

Lean SEIS SIGMA Área Temática: Logística

Lean SEIS SIGMA Área Temática: Logística Proyecto fin de Master Hito 3 Ejercicio Nº 1 Lean SEIS SIGMA Área Temática: Logística www.formatoedu.com 1 Enunciado Lean Seis Sigma es una metodología eficaz para reducir sistemáticamente todas las deficiencias

Más detalles

IFRS Project Insights Instrumentos financieros: deterioro

IFRS Project Insights Instrumentos financieros: deterioro IFRS Project Insights Instrumentos financieros: deterioro 16 Junio 2011 El proyecto de IASB sobre el instrumento financiero reemplazará al IAS 39 Instrumentos financieros: reconocimiento y medición. El

Más detalles

DISTRIBUCIONES DISCRETAS CON EXCEL Y WINSTATS

DISTRIBUCIONES DISCRETAS CON EXCEL Y WINSTATS DISTRIBUCIONES DISCRETAS CON EXCEL Y WINSTATS A) INTRODUCCIÓN Una distribución de probabilidad es una representación de todos los resultados posibles de algún experimento y de la probabilidad relacionada

Más detalles

Minería de datos (Introducción a la minería de datos)

Minería de datos (Introducción a la minería de datos) Minería de datos (Introducción a la minería de datos) M. en C. Sergio Luis Pérez Pérez UAM CUAJIMALPA, MÉXICO, D. F. Trimestre 14-I. Sergio Luis Pérez (UAM CUAJIMALPA) Curso de minería de datos 1 / 24

Más detalles

Simulación Computacional. Tema 1: Generación de números aleatorios

Simulación Computacional. Tema 1: Generación de números aleatorios Simulación Computacional Tema 1: Generación de números aleatorios Irene Tischer Escuela de Ingeniería y Computación Universidad del Valle, Cali Typeset by FoilTEX 1 Contenido 1. Secuencias pseudoaleatorias

Más detalles

EL IMPACTO DE BASILEA III EN EL NEGOCIO FINANCIERO

EL IMPACTO DE BASILEA III EN EL NEGOCIO FINANCIERO EL IMPACTO DE BASILEA III EN EL NEGOCIO FINANCIERO Herramientas idóneas para el control de riesgos y la evolución de la calidad de las carteras Gustavo Chuliver Gerente AIS Argentina gustavo.chuliver@ais-int.net

Más detalles

Modelos de regresión: lineal simple y regresión logística

Modelos de regresión: lineal simple y regresión logística 14 Modelos de regresión: lineal simple y regresión logística Irene Moral Peláez 14.1. Introducción Cuando se quiere evaluar la relación entre una variable que suscita especial interés (variable dependiente

Más detalles

IXE AUTOMOTRIZ, S.A. DE C.V. SOCIEDAD FINANCIERA DE OBJETO MULTIPLE ENTIDAD REGULADA, GRUPO FINANCIERO BANORTE

IXE AUTOMOTRIZ, S.A. DE C.V. SOCIEDAD FINANCIERA DE OBJETO MULTIPLE ENTIDAD REGULADA, GRUPO FINANCIERO BANORTE IXE AUTOMOTRIZ, S.A. DE C.V. SOCIEDAD FINANCIERA DE OBJETO MULTIPLE ENTIDAD REGULADA, GRUPO FINANCIERO BANORTE CIFRAS AL 30 DE SEPTIEMBRE DE 2012 (Expresadas en millones de pesos) Información mínima a

Más detalles

Análisis multivariable

Análisis multivariable Análisis multivariable Las diferentes técnicas de análisis multivariante cabe agruparlas en tres categorías: «Análisis de dependencia» tratan de explicar la variable considerada independiente a través

Más detalles

Programa de Asignatura : Modelación de Riesgos Financieros

Programa de Asignatura : Modelación de Riesgos Financieros Programa de Asignatura : Modelación de Riesgos Financieros Carrera : INGENIERÍA FINANCIERA Nivel : Semestre VIII Área : Economía y Finanzas Requisito : Administración y Control de Riesgos Horas semanales

Más detalles

CASA DE BOLSA CREDIT SUISSE MEXICO, S. A.

CASA DE BOLSA CREDIT SUISSE MEXICO, S. A. CASA DE BOLSA CREDIT SUISSE MEXICO, S. A. Institución de Banca Múltiple Grupo Financiero Credit Suisse México Comentarios y Análisis de la Administración sobre los resultados de operación y situación financiera

Más detalles