Alejandro Salazar Couso Máster Oficial en Estadística Aplicada Universidad de Granada

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Alejandro Salazar Couso Máster Oficial en Estadística Aplicada Universidad de Granada"

Transcripción

1 Trabajo de investigación realizado por: Alejandro Salazar Couso como proyecto de fin de máster para el: Máster Oficial en Estadística Aplicada de la: Universidad de Granada

2 2

3 Índice. Capítulo 1: Introducción... 6 Capítulo 2: Metodología Los modelos de respuesta discreta El modelo lineal El modelo logit El modelo probit : Modelo de regresión logística binaria : Formulación e interpretación : Formulación del modelo : Interpretación Estimación Contrastes sobre los parámetros : Contrastes : Intervalos de confianza : Bondad de ajuste : Selección de variables : Validación y diagnosis Capítulo 3: Aplicación en R Primeros pasos con R Estadística descriptiva básica con R Variables categóricas Variables cualitativas ordinales Variables cuantitativas

4 3.2.4 Variables de intervalo Variables de razón Análisis exploratorio de datos multidimensionales Ajuste de un modelo logístico binario con R : Formulación : Parámetros : Bondad de ajuste : Selección de variables : Validación y diagnosis Capítulo 4: Aplicación a datos reales : Introducción y antecedentes del problema : Material y método Resultados : Análisis descriptivo : Prevalencia de dolor crónico diagnosticado : Factores asociados a la presencia de dolor. Modelo logit : Selección de variables : Parámetros del modelo : Bondad de ajuste : Validación y diagnosis : Conclusiones Anexo: Sentencias de R Bibliografía

5 5

6 Capítulo 1 Introducción En el presente trabajo se estudiarán modelos de respuesta discreta, su formulación, su ajuste y evaluación con R y se aplicarán a un conjunto de datos reales. En particular, nos centraremos en los modelos de regresión logística binaria. Los modelos de respuesta discreta son la herramienta estadística apropiada para modelizar el comportamiento de una variable dependiente (respuesta) de naturaleza discreta a partir de un conjunto de variables independientes (predictoras), que pueden ser tanto discretas como continuas. Estos modelos son un caso particular de los Modelos Lineales Generalizados introducidos por Nelder y Wedderburn en Para un mayor conocimiento de éstos, pueden consultarse obras como las de McCullagh y Nelder 1 o Agresti 2. Existen distintos tipos de modelos de respuesta discreta que dependen, entre otros aspectos, del tipo de respuesta. En particular, si la variable dependiente es dicotómica, estamos hablando de modelos de respuesta binaria, mientras que si tiene más de dos categorías de respuesta, estamos hablando de modelos de respuesta múltiple. Más aún, si esas categorías tienen un orden natural, entonces estamos hablando de modelos de respuesta ordenada. Según la función utilizada para la estimación de la probabilidad, encontramos el modelo lineal, el modelo Logit y el modelo Probit. Cuando las variables explicativas que se utilizan para estimar las probabilidades asociadas a cada una de las posibles alternativas que presenta la variable dependiente se refieren a atributos de las distintas alternativas, y no a características específicas de los individuos, entonces hablamos de un modelo condicional. En el ejemplo que se estudiará en el último capítulo de esta memoria, la variable respuesta es dicotómica, por lo que debería ajustarse un modelo de respuesta binaria. 6

7 Existen diversas alternativas para la aplicación de modelos de respuesta discreta, pero en el presente trabajo usaremos la alternativa ofrecida por R. El programa R es un entorno para la estadística computacional y gráficos. Funciona en una amplia variedad de plataformas UNIX, Windows y MacOS. Es un lenguaje de órdenes (funciona con comandos) basado en los lenguajes previos S y Scheme. Ofrece un amplio abanico de posibilidades (modelos lineales y no lineales, test estadísticos, análisis de series temporales, clasificación, análisis clúster ) así como técnicas gráficas, y puede ser ampliado casi sin límites. El propósito, por tanto es de estadística general, pero al ser software libre permite crear paquetes más específicos, otorgándole mayor versatilidad. Sus gráficos son de reconocida calidad e incluye simbología matemática. Tal y como se afirma en la página oficial 3 del proyecto R, se trata de un entorno en el que se implementan técnicas estadísticas, pero que ofrece muchas más opciones. En el presente trabajo se hará uso de la versión R con R-Commander, que es una Interfaz Gráfica de Usuario que permite hacer uso del entorno estadístico R de una forma mucho más intuitiva, sin necesidad de conocer completamente el lenguaje de comandos propio de este entorno. R-Commander dota a R de una interfaz mucho más amigable de cara al usuario, tratando de corregir uno de los aspectos más criticados del paquete estadístico. Como se ha indicado previamente en la presente memoria, se mostrará una aplicación con datos reales de los modelos de respuesta discreta. Se describe a continuación la información disponible: La base de datos escogida es la correspondiente a la Encuesta de Discapacidad, Autonomía personal y situaciones de Dependencia (EDAD-2008) 4 llevada a cabo por el Instituto Nacional de Estadística (INE) entre noviembre de 2007 y febrero de En la misma se recogen datos de diferente índole (sociodemográficos y de carácter sanitario principalmente) de individuos discapacitados en España. Los objetivos de esta encuesta son ofrecer información sobre los fenómenos de la discapacidad, la dependencia, el envejecimiento y el estado de salud de la población. Además de en 2008, el INE ha realizado esta encuesta en otras dos ocasiones: 1986 y 1999, y pone a disposición de todo el mundo los datos recogidos en 1999 y en 2008, debidamente anonimizados. Sin embargo, las versiones de algunas preguntas en ambos cuestionarios difieren en mayor o menor medida, lo que hace complicada la comparación entre ambos años, razón por la que se optó por un estudio de corte transversal con la versión del año

8 En cuanto a nuestro estudio, nos centraremos en aquellos individuos discapacitados que padezcan dolor crónico, ya que se trata de dos problemas de salud frecuentes (discapacidad y dolor) actualmente y que pueden estar ligados 5-7. Se trata, por tanto, de un ejemplo relativo a la sanidad, con evidentes aplicaciones y utilidad real, que pone de manifiesto la importancia de los modelos de respuesta discreta, que trasciende lo puramente estadístico para meterse de lleno en otras áreas de la ciencia y el conocimiento humano. Son muchos los estudios epidemiológicos (como el de nuestro ejemplo) que hacen uso de estas herramientas estadísticas. Para saber más sobre el papel que la estadística juega en los estudios epidemiológicos, puede consultarse el libro de Selvin, Statistical Analysis of Epidemiological Data 8. En vista de lo expuesto, los objetivos de este trabajo son: 1. Profundizar en los modelos de respuesta discreta (y en particular en el modelo de regresión logística binaria) desde un punto de vista teórico, mostrando el desarrollo matemático que subyace. 2. Explicar el funcionamiento del paquete estadístico R, particularmente el de aquellas funciones que serán necesarias para la realización de este trabajo, y mostrar las técnicas disponibles para el ajuste y evaluación de un modelo de respuesta discreta con R. 3. Aplicar la metodología expuesta al conjunto de datos reales especificado anteriormente. Con esta aplicación nuestros objetivos son, a su vez, conocer la prevalencia, características y factores asociados al dolor crónico en discapacitados, así como la comorbilidad dolor crónico-ansiedad y dolor crónicodepresión. Las conclusiones del estudio están encaminadas a mejorar el tratamiento del dolor en estos pacientes mediante la exploración sistemática de trastornos psiquiátricos asociados. 8

9 Para lograr nuestros objetivos, y al objeto de facilitar la lectura y comprensión del trabajo, se ha dividido el mismo en 4 capítulos, cada uno enfocado a un objetivo: El capitulo 1, Introducción, es el capítulo donde se introducen los conceptos, la metodología, los objetivos y la estructura del trabajo. Es una breve visión del mismo a modo de resumen, para tener una idea global de este trabajo. El capítulo 2, Metodología, es el capítulo que entra de lleno en la base teórica de los modelos de respuesta discreta. En él se presentan de forma genérica los modelos de respuesta discreta y, con rigor, la formulación, interpretación, ajuste, contraste de bondad de ajuste, validación y diagnosis de los modelos de regresión logística binaria. Este capítulo responde al primer objetivo planteado. El capítulo 3, Aplicación en R, ofrece una descripción detallada del software utilizado para el análisis estadístico propuesto. Para adaptarnos a cualquier nivel de conocimientos previos sobre R, el capítulo comienza con unos primeros pasos en R y R-Commander, desde su instalación hasta la creación e importación de bases de datos, incluyendo unas pinceladas sobre la creación y manejo de objetos en R. También se describen las técnicas para la realización de todos los análisis que se verán en el capítulo 4, desde los análisis descriptivos básicos, incluyendo figuras, pasando por análisis multidimensionales, hasta el propio ajuste de un modelo logístico binario. Este capítulo responde al segundo objetivo planteado. El capítulo 4, Aplicación a datos reales, se dedica al análisis de los resultados. En él se expone de manera detallada la base de datos reales seleccionada para ilustrar la metodología, se ofrece una visión global del problema de salud planteado en el ejemplo, se detalla el procedimiento seguido para los análisis descriptivos y el ajuste del modelo, se muestran y se explican los resultados obtenidos y se sacan conclusiones. Este capítulo responde al tercer y último objetivo planteado, incluidos los objetivos específicos marcados para el ejemplo concreto con datos reales. 9

10 10

11 Capítulo 2 Metodología En el presente capítulo se presentan de forma genérica los modelos de respuesta discreta y, con rigor, la formulación, interpretación, ajuste, contraste de bondad de ajuste, validación y diagnosis de los modelos de regresión logística binaria. 2.1: Los modelos de respuesta discreta. Como se ha avanzado en la introducción del trabajo, los modelos de respuesta discreta son la herramienta estadística apropiada para modelizar el comportamiento de una variable dependiente (respuesta) de naturaleza discreta a partir de un conjunto de variables independientes (predictoras), que pueden ser tanto discretas como continuas. Estos modelos son un caso particular de los Modelos Lineales Generalizados introducidos por Nelder y Wedderburn en Veremos en este capítulo distintos modelos de respuesta discreta, pero para un mayor conocimiento de éstos, remitimos nuevamente a los libros de McCullagh y Nelder 1 y Agresti 2. Recordando la clasificación que ya ha sido introducida en el capítulo 1, encontramos que los modelos de respuesta discreta pueden clasificarse en modelos de respuesta binaria y modelos de respuesta múltiple, según la variable dependiente tenga, respectivamente, 2 categorías o más de 2. Si existe un orden natural en las categorías, entonces es un modelo de respuesta ordenada. También se han presentado anteriormente los modelos condicionales. Finalmente, según la función utilizada para la estimación de la probabilidad, encontramos el modelo lineal, el modelo Logit y el modelo Probit. Como los modelos de respuesta múltiple (en los que la variable dependiente tiene J posibles respuestas (J>2)) no son el objeto de este trabajo, nos remitimos a los libros de Agresti, Multivariate Analysis: Discrete Variables (Overview) 9 y Categorical 11

12 data analisys 2. Estos libros son una lectura recomendada tanto para modelos de respuesta múltiple como para modelos de respuesta discreta, en general. Los modelos de respuesta binaria tienen una variable dependiente dicotómica que llamaremos Y. Esta variable puede tomar dos valores, que podremos recodificar en 0 y 1. Generalmente se asocia el valor 0 a la ausencia, al fracaso o a una respuesta negativa en general, y el valor 1 a la presencia, el éxito o una respuesta afirmativa en general. Con la variable así codificada, se tiene que Y sigue una distribución de Bernouilli de parámetro p (0<p<1). Puesto que contamos con una serie de variables independientes X predictoras del comportamiento de Y, lo propio es considerar la distribución de Y en cada valor observado de X, Y(x). Se tiene que es también una Bernouilli de esperanza p(x) y varianza p(x)[1-p(x)]. El objetivo final será la construcción de un modelo para Y(x) en función de los parámetros, x, y un error. Para satisfacer esta necesidad, disponemos de los modelos lineales, los modelos logit y probit, aunque los modelos lineales tienen ciertos problemas que veremos a continuación : El modelo lineal Supongamos que tenemos R variables independientes con N observaciones en cada una. Sea,, el vector que contiene las observaciones de cada variable para el individuo i-ésimo. El modelo de probabilidad lineal, que deriva del modelo de regresión lineal, ( 1,, ), ( 1,, ) teniendo en cuenta que los errores son variables aleatorias independientes y de esperanza 0, es de la forma:, ( 1,, ), ( 1,, ) Este modelo presenta diversos problemas, entre los que destaca la no normalidad, la no homocedasticidad (varianza de la respuesta no constante sobre los valores de x), la posibilidad de obtener valores de la probabilidad por debajo de 0 y por encima de 1, la subestimación del parámetro y, sobre todo, el hecho de que aumentos iguales en las variables explicativas originen aumentos iguales en la probabilidad de respuesta. Esta última situación no es en absoluto realista, ya que en general esta dependencia no será lineal. 12

13 En la imagen 2.1 se muestra la representación gráfica de un modelo lineal. Podemos observar algunos de los problemas explicados como el de los aumentos constantes y, de forma más evidente, la falta de acotación en el intervalo [0,1]. Imagen 2.1: Representación gráfica de un modelo lineal. Todos los problemas presentados hacen que estos modelos no sean tan utilizados y, en su lugar, la comunidad científica tienda a hacer uso de los modelos no lineales, que vienen a corregir dichos problemas. En el caso de los modelos no lineales, lo que se busca es un modelo del tipo: Es decir:, ( 1,, ), ( 1,, ), ( 1,, ), ( 1,, ) La elección de esa función F determina el modelo considerado. Los modelos más destacados son el modelo logit y el modelo probit : El modelo logit. forma: Siguiendo con la notación anterior, el modelo de regresión logística es de la O equivalentemente:, ( 1,, ), ( 1,, ) ln, ( 1,, ), ( 1,, ) 13

14 Este modelo no se sale del rango [0,1] como ocurría con el lineal. Además, las rectas Y=0 e Y=1 son asíntotas horizontales y la tasa de cambio en p(x en función de los cambios en las variables independientes, no es constante en esta ocasión. En la imagen 2.2 podemos ver una representación gráfica de este modelo ajustando los mismos datos que se ajustaron linealmente en la imagen 2.1. Dicha imagen muestra, entre otras cosas, que la curva en esta ocasión sí que está acotada en [0,1] y que los aumentos no son constantes, dando como resultado una representación más fiel a la realidad: Imagen 2.2: Representación gráfica de un modelo logit. Se trata de un modelo que es ampliamente utilizado por la comunidad científica y, en particular, en estudios epidemiológicos como el que se presenta en el capítulo 4 de este trabajo. Por esta razón se hará un estudio más detallado del mismo en el apartado 2.2 del presente capítulo. Paralelamente, para un mayor conocimiento se pueden consultar los trabajos de Hosmer y Lemeshow 19, Kleinbaum 20 o Silva Aycaguer 21 entre otros : El modelo probit. Para el modelo probit se considera la función de densidad de una normal estándar (N(0,1)), siendo ésta: F x 1 2π e dt, x R La expresión del modelo sigue siendo la misma, pero con esa elección concreta de F:, ( 1,, ), ( 1,, ) 14

15 Este modelo tiene características similares a las del modelo logit, con la particularidad de aproximarse a las asíntotas horizontales (Y=0, Y=1) con mayor rapidez. Es un modelo que también se usa con cierta frecuencia en el ámbito de la investigación científica y, particularmente, es muy usado en toxicología Para un mayor conocimiento sobre estos modelos pueden consultarse las obras de Bliss 31, Finney 32 o Steinbrecher y Shaw : Modelo de regresión logística binaria. El modelo de regresión logística binaria tiene un gran interés desde el punto de vista epidemiológico, como ya se ha visto. En este apartado se describirá el modelo con mayor nivel de detalle. El desarrollo teórico que se presenta a continuación parte de la base de los principales textos sobre regresión logística como son los de Agresti 2, Hosmer y Lemeshow 19 y Kleinbaun 20, así como del libro de Aguilera Modelos de Respuesta Discreta: Asignatura Modelización y Predicción Estocásticas : Formulación e interpretación : Formulación del modelo Recordemos que un modelo logit viene expresado a través de: ln, ( 1,, ), ( 1,, ) Donde k es el número de variables independientes, n el número de observaciones en cada una,,, el vector que contiene las observaciones de cada variable para el individuo i-ésimo y el cociente representa la ventaja de respuesta Y=1 para los valores observados de las variables independientes. El caso más sencillo de modelo logístico es aquel en el que se tiene una única variable independiente continua, esto es: ln 1 Veamos las principales características de la curva de respuesta en el caso de una única variable con un único parámetro b. En primer lugar, se tiene que la curva tiene forma de S y está acotada dentro del intervalo de valores [0,1], siendo las rectas Y=0 e Y=1 asíntotas horizontales. Su crecimiento es monótono, pudiendo ser creciente 15

16 (si b>0) o decreciente (si b<0). Por tanto, con b>0 la probabilidad de respuesta tenderá a 1 para y a 0 para. La situación se invierte si b<0. Si b=0, la curva es en realidad una recta e Y es independiente de x. La tasa de cambio en p(x) por cada unidad de cambio en x no es constante, ya que viene dada por la pendiente de la recta tangente a la curva. En el caso de tener más de una variable independiente, pero todas continuas, el modelo adopta la forma: ln, ( 1,, ), ( 1,, ) Si se tiene alguna variable independiente categórica, es necesario definir una serie de variables nuevas, artificiales, que servirán para poder pasar de una variable categórica con k categorías a k-1 variables indicadoras de la presencia de cada categoría, por separado 35. Dichas variables de diseño, también conocidas como variables ficticias o dummies, son introducidas en el modelo como variables continuas, tal y como se explica a continuación: Para crear las k-1 variables de diseño asociadas a una variable con k categorías podemos elegir entre dos posibles métodos: el método parcial y el método marginal. El método parcial consiste en elegir una categoría de referencia dentro de las k posibles y construir para cada una de las restantes una variable que valga 1 en la categoría considerada y 0 en el resto. Por ejemplo, si tenemos una variable con las categorías bajo, medio y alto, podríamos elegir bajo como categoría de referencia y crear dos variables de diseño: una que valga 1 cuando se de la categoría medio y 0 en los otros dos casos y una segunda variable que valga 1 cuando se de la categoría alto y 0 en los otros dos casos. Estas dos variables son las que entran en el modelo. El método marginal es similar en su concepto, salvo que en esta ocasión todas las dummies toman el valor -1 cuando se da la categoría de referencia, en lugar de 0. Un caso especial es el de las variables ordinales, ya que además de poder usar los métodos anteriores, contamos con la posibilidad ordenar las categorías, asignar puntuaciones y tratarla como continua. 16

17 Lo común en epidemiología es utilizar el método parcial 36, 37, que permite interpretar los parámetros en términos de cocientes de ventajas de forma sencilla, como se verá en el siguiente apartado : Interpretación. En la fórmula del modelo tenemos una serie de coeficientes que son los parámetros del mismo. Además, a partir de ellos pueden calcularse los denominados cocientes de ventajas, que serán de mucha utilidad a la hora de interpretar el modelo. En el caso trivial de que todos los coeficientes del modelo fuesen 0, la variable Y sería independiente de las variables explicativas. Obviando este caso, tenemos que: En un modelo con una única variable independiente, el riesgo relativo de respuesta Y=1 para dos valores distintos y del predictor se define como: y el cociente de ventajas de respuesta Y=1 dados dos valores distintos y del predictor se define como: 1 1 Estando ambos conceptos relacionados a través de la expresión: 1 1 De tal forma que si la probabilidad de respuesta Y = 1 es cercana a 0, el riesgo relativo puede ser aproximado mediante el cociente de ventajas. Esta situación es beneficiosa para el epidemiólogo, ya que el riesgo relativo no tiene sentido en estudios retrospectivos al estar el número de enfermos (Y=1) prefijado de antemano, mientras que el cociente de ventajas tiene sentido siempre. Por esta razón se interpretarán los parámetros de los modelos en términos de cocientes de ventajas. Teniendo en cuenta esto, pasamos a interpretar los parámetros del modelo: 17

18 La constante a es el valor del logaritmo de la ventaja de respuesta Y=1 para un individuo que tiene valor 0 en todas las variables independientes, o bien cuando la respuesta es independiente de las variables predictoras. Por tanto, es su exponencial la que indica la ventaja de respuesta Y=1. A partir de los parámetros podemos calcular los cocientes de ventaja de respuesta Y=1 como las exponenciales de dichos parámetros. Es lo que se conoce como odds ratio (OR). La interpretación de estos parámetros varía ligeramente según la naturaleza de la variable que le acompaña. Si la variable es continua, el cociente de ventajas representa la variación en la ventaja de respuesta Y=1 por cada unidad de aumento de la variable, cuando el resto de variables permanece constante. Al aumentar en una unidad dicha variable y dejar el resto fijas, la ventaja de respuesta Y=1 queda multiplicada por la exponencial de (OR). Por lo tanto, si OR=1 (equivalentemente, =0), significa que dicha variable en concreto no afecta a la respuesta. Si OR<1 ( <0) se tiene que la ventaja de respuesta Y=1 disminuye. En términos epidemiológicos se dice que esa variable es un factor protector. Si OR>1 ( >0), la ventaja aumenta y se tiene un factor de riesgo. Si la variable original es categórica y se han definido las dummies con el método parcial, tenemos una OR para cada una de las variables de diseño (es decir, cada una de las categorías) y dicho valor representa la ventaja de respuesta Y=1 de esa categoría en concreto con respecto a la categoría de referencia, cuando el resto de variables queda fijo. Los conceptos de factor protector y factor de riesgo siguen teniendo validez en este caso. Si las dummies han sido definidas mediante el método marginal, la interpretación de los parámetros es algo más compleja. Cada parámetro es la desviación del logit de la categoría que lleva asociada con respecto a la media de todos los logit, por lo que la exponencial del parámetro es el cociente entre la ventaja de respuesta Y=1 para su categoría asociada y la media geométrica de todas las ventajas de respuesta Y= : Estimación. Sea,,, con q=1,...,q la q-ésima combinación de valores de las R variables explicativas en la muestra de tamaño N. Sea el número de observaciones muestrales con e el número de respuestas Y=1 entre dichas observaciones. Sea 1. Considerando la constante a del modelo como primer elemento del vector de coeficientes, podemos expresar el modelo en forma matricial como L=XB, donde L es el vector de las transformaciones logit, B es el vector de parámetros (incluido a) y X es la matriz del diseño que contiene las 18

19 observaciones de las variables explicativas. Lo más usual es ajustar el modelo a través del método de máxima verosimilitud (MV). Los estimadores MV dan máxima probabilidad a los datos observados. Se calculan maximizando la función de verosimilitud de los datos respecto de los parámetros del modelo logit, o equivalentemente, maximizando el logaritmo del núcleo de la función de verosimilitud. Teniendo en cuenta que la función de verosimilitud es el producto de las Q funciones masa de probabilidad de las Q binomiales independientes, partimos de: 1 Calculando el logaritmo del núcleo de la función de verosimilitud anterior, derivando con respecto a cada parámetro e igualando a 0 obtenemos las ecuaciones de verosimilitud: 0, 0,, con el estimador MV de y los estimadores MV de : 1 Debido a la concavidad de la log-verosimilitud, estos estimadores existen y son únicos siempre que exista cierto solapamiento en los datos. En otras palabras, no debe darse el caso en el que a todos los valores para los que la variable respuesta sea 0 correspondan valores de la variable explicativa menores que aquellos para los que la respuesta es 1 (separación completa) 38, 39. Las ecuaciones de verosimilitud no son lineales en los parámetros. Para resolverlas, se propone el uso de un método iterativo como es el de Newton- Raphson, que puede usarse para el cálculo aproximado del máximo de una función 40. Este método parte de una aproximación inicial del máximo y, en cada paso, se toma como localización del máximo de la función la del polinomio de segundo grado obtenido truncando el desarrollo de Taylor de la función en un entorno de la aproximación obtenida en el paso anterior. El método converge siempre que verifique 19

20 ciertas condiciones de regularidad y el valor inicial sea adecuado. Pueden verse más detalles en la revisión realizada por Tjalling sobre el método de Newton-Raphson 40. En nuestro caso, aplicando el método a partir de unos valores iniciales que más adelante se detallan, podemos obtener la aproximación a través de la fórmula iterativa: 1 La convergencia de y hacia los estimadores MV y es de orden 2 y el criterio de parada suele ser cuando entre dos pasos consecutivos, el cambio en las probabilidades o la log-verosimilitud es inferior a 10, o el de los parámetros B inferior a 10 40, 41. En cuanto a la elección de los valores iniciales adecuados, algunas opciones son asumir que son 0, partir de la estimación obtenida mediante mínimos cuadrados ordinarios, o partir de los valores más adecuados obtenidos mediante análisis discriminante sobre las variables explicativas, como proponen Hosmer y Lemeshow 19. Por otra parte, se podría usar el método de estimación por mínimos cuadrados ponderados para la estimación de los parámetros. Este método pondera cada observación por el inverso de su varianza, debido a la heterocedasticidad. Se trata de un método que conduce a la obtención de estimadores asintóticamente óptimos para valores grandes, aunque no está exento de dificultades, como la fuerte dependencia de los valores iniciales y el hecho de ignorar los casos en los que 1 y la práctica totalidad de la información de las variables continuas, aunque esto último puede corregirse sustituyendo las frecuencias de respuesta 0 por el valor 0.5. Para la aplicación del método de estimación por mínimos cuadrados ponderados partimos del modelo en forma matricial: L=XB. Sea la proporción observada de respuestas Y=1 en la q-ésima combinación de valores de las variables explicativas. El ajuste del modelo logit se corresponde con el del modelo lineal:, siendo Z el vector de elementos ln 20 y e el vector de errores centrados e independientes. La estimación por mínimos cuadrados ponderados de sus parámetros viene dada por: 1 1

21 Los estimadores de máxima verosimilitud tienen, bajo ciertas condiciones, distribución asintótica normal de media el valor poblacional del parámetro estimado y matriz de covarianzas dada por la inversa de la matriz de información de Fisher. Así, son asintóticamente insesgados y además se puede hacer inferencia sobre ellos basándose en dicha distribución normal cuando el tamaño muestral es suficientemente grande. Estos resultados se deben a Wald : Contrastes sobre los parámetros : Contrastes. Sobre los parámetros podemos realizar contrastes de Wald, contrastes condicionales de razón de verosimilitudes y test de Score. El contraste de Wald se basa en la normalidad asintótica de los estimadores MV. La hipótesis nula es que un subconjunto de los parámetros, denotado,, es nulo. El estimador MV de los parámetros del subconjunto C tiene distribución asintótica de media c y matriz de covarianzas igual a la submatriz de la matriz de covarianzas de los parámetros generada por el subconjunto de parámetros C (a la que llamaremos ). El estadístico de Wald es la forma cuadrática que asintóticamente sigue una con l grados de libertad (l es el número de parámetros nulos bajo la hipótesis nula), rechazándose ésta a nivel de significación si el valor del estadístico es mayor o igual que el cuantil 1 de la distribución. El contraste condicional de razón de verosimilitudes es más fiable en general que el de Wald, siendo su uso más recomendable, razón por la que la selección de variables en el apartado se plantea con este tipo de contrastes. En este contraste se parte de un modelo M que se ajusta bien y se quiere contrastar si un subconjunto de los parámetros, denotado,, es nulo. Al hacer 0 esos parámetros en M obtenemos un modelo MA anidado a M. La hipótesis nula es C=0 frente al modelo completo M y el estadístico de contraste verifica que:, es decir, es la diferencia de los contrastes de razón de verosimilitudes de bondad de ajuste para cada modelo. Éste tiene, bajo el modelo ME, distribución con l grados de libertad. Se rechazará la hipótesis nula en las mismas condiciones que en el test de Wald. El test de Score, basado en la distribución de las derivadas parciales de la log-verosimilitud, reduce los cálculos con respecto a los anteriores contrastes. Las 21

22 hipótesis siguen siendo las mismas pero el estadístico, en esta ocasión, es la forma cuadrática: 1 donde es el estimador MV de los parámetros del modelo MA, D( ) el vector de derivadas parciales de la log-verosimilitud evaluado en y X es tal que, con el vector de valores esperados. Este estadístico tiene, bajo la hipótesis nula, distribución con grados de libertad igual al número de componentes nulas en MA : Intervalos de confianza. Basándonos en la distribución normal asintótica de los estimadores MV, podemos construir los siguientes intervalos de confianza a nivel 1 : Para los parámetros: Para cada (que sigue una N, ), se tiene el intervalo: z σ. Para las transformaciones logit (L(x)): Teniendo en cuenta que el estimador MV de L,, tiene distribución asintótica N(L(x), ), se tiene el intervalo: z σ. Para las probabilidades de respuesta Y=1: A través de la transformación se obtiene el intervalo: 1 Para los cocientes de ventajas: Al tratarse de las exponenciales de las, basta con tomar exponenciales en sus intervalos de confianza, quedando los intervalos de la forma: 22

23 2.2.4: Bondad de ajuste. Sea y el número de respuestas Y=1 en las n observaciones correspondientes a la q-ésima combinación de valores de las variables explicativas, con q=1,...,q. Sean p las probabilidades y m n p las frecuencias esperadas de valores Y=1. Sean p y m sus estimaciones de máxima verosimilitud. El test global de bondad de ajuste del modelo contrasta la hipótesis nula: : 1 1,, frente a la alternativa de ser distinto para algún valor de q. Si el número de observaciones en cada combinación de valores de las variables explicativas es grande, podemos hacer uso del estadístico de Pearson y del estadístico de Wilks de razón de verosimilitudes. En cambio, si el número de observaciones no es demasiado grande, existe una modificación del estadístico conocida como el estadístico de Hosmer y Lemeshow. Finalmente, algunas medidas globales para la bondad del ajuste son la tasa de clasificaciones correctas, el área bajo la curva ROC y las medidas tipo. Se explican a continuación todos los contrastes y las medidas mencionadas: El estadístico de Pearson es el resultado de sumar los estadísticos de bondad de ajuste a cada una de las distribuciones B(n, p ) que generan a los datos muestrales bajo la hipótesis nula de que las probabilidades p verifiquen el modelo, resultando ser: 1 Este estadístico tiene distribución asintótica con tantos grados de libertad como la diferencia entre el número de parámetros p (transformaciones logit muestrales) y el número de parámetros independientes en el modelo, es decir, Q- (R+1), de tal modo que se rechazará a nivel de significación cuando el valor del estadístico supere al cuantil de orden 1-, esto es, ;, o equivalentemente, cuando el p-valor sea. El test chi-cuadrado de razón de verosimilitudes se basa en el estadístico de Wilks, calculado como menos dos veces el logaritmo del cociente entre el supremo de 23

24 la verosimilitud bajo la hipótesis nula y el supremo de la verosimilitud en la población. El estadístico resulta ser: 2 Este estadístico, también conocido como devianza, tiene la misma distribución asintótica que el de Pearson, de modo que se rechazará la hipótesis nula en las mismas condiciones que en aquel. Para poder asumir la distribución chi-cuadrado de ambos estadísticos, ha de ocurrir que el 80% de las frecuencias estimadas bajo el modelo, m n p, sean mayores que cinco y todas mayores que uno. En caso contrario debe hacerse uso del test de Hosmer y Lemeshow 19. Para la construcción del estadístico, se agruparán las variables explicativas en G grupos o clases (los autores recomiendan 10 grupos basados en los deciles de las probabilidades estimadas). Sea n el número total de observaciones en el g-ésimo grupo, el número de respuestas Y=1 en el g-ésimo grupo, y la probabilidad estimada bajo el modelo de respuesta Y=1 para el g-ésimo grupo obtenida como la media de las probabilidades p de los valores de dicho grupo. El estadístico viene dado por: 1 que tiene distribución asintótica chi-cuadrado con G-2 grados de libertad, por lo que con ésta compararemos para rechazar o aceptar la hipótesis nula. Además de los tests previamente descritos, podemos calcular distintas medidas de bondad de ajuste global como la tasa de clasificaciones correctas, el área bajo la curva ROC o las medidas tipo. La tasa de clasificaciones correctas se calcula como el cociente entre los aciertos y el tamaño muestral. Se entiende por acierto el hecho de que la predicción del modelo para la respuesta coincida con el verdadero valor de la respuesta. Para clasificar a los individuos se fija un punto de corte (cut off) tal que si la probabilidad estimada por el modelo para un individuo es menor, se clasifica como Y=0, y si es mayor, como Y=1. Aunque muchas veces ese cut off se toma como 0.5, es más apropiado tomar como punto de corte la proporción de valores Y=1 en la muestra, e 24

25 incluso más aconsejable es probar distintos puntos de corte y quedarnos con el que maximice la tasa de clasificaciones correctas. La curva ROC es una gráfica que permite evaluar la capacidad del modelo para discriminar. El área bajo la curva ROC representa la probabilidad de que un individuo enfermo elegido al azar tenga mayor probabilidad estimada de padecer la enfermedad que un individuo no enfermo elegido también al azar. Por tanto, lo deseable es que esta medida sea lo más alta posible, considerándose que el modelo es preciso y tiene alta capacidad de discriminación cuando el área es al menos El rango de posibles valores es entre 0.5 y 1, correspondiendo el primero a la peor curva ROC posible (la recta y=x) y el segundo a la curva ROC ideal. Para construirla, se representa gráficamente la tasa de verdaderos positivos (en el numerador, el número de individuos con Y=1 para los que el modelo predice también Y=1; en el denominador, total de individuos en la muestra con Y=1) frente a la tasa de falsos positivos (en el numerador, el número de individuos con Y=0 para los que el modelo predice Y=1; en el denominador, total de individuos en la muestra con Y=0) para distintos puntos de corte. En la imagen 2.3 vemos un ejemplo de curva ROC dibujada junto a la recta y=x. Imagen 2.3: Ejemplo de curva ROC. Las medidas tipo intentan adaptar a la regresión logística la medida de la lineal, aunque no son tan potentes 19. Se pueden definir distintas medidas de este tipo, pero muchas de ellas presentan inconvenientes como el hecho de decrecer al añadir una variable explicativa al modelo o que llegue a tomar valores pequeños cuando el ajuste es casi perfecto. Como medida en regresión logística se propone la de Cox y Snell: 1 donde V es el máximo de la verosimilitud bajo el modelo nulo y V el máximo de la verosimilitud bajo el modelo ajustado con todos los parámetros. No obstante, el 25

26 máximo de esa medida es 1, pero puede ajustarse para que sea 1 a través de la de Nagelkerke, cuya definición es: 2.2.5: Selección de variables. á De todos los posibles modelos que se pueden ajustar, debemos escoger un único modelo final que explique el comportamiento de la variable dependiente en función de las variables independientes. Para tal efecto, la regla de oro que se debe tener siempre presente es el conocido como principio de parsimonia, consistente en la elección del modelo que ajuste bien los datos con el menor número de variables posible y lleve a una interpretación sencilla en términos de cocientes de ventajas. Ajustar todos y cada uno de los posibles modelos a partir de n variables explicativas para compararlos entre sí es una labor tediosa e innecesaria. En su lugar, existen procedimientos que ahorran tiempo y cálculos y que nos guían a través de un camino más directo en la búsqueda del mejor modelo posible, como son los procedimientos paso a paso (stepwise). En cada paso del procedimiento stepwise se incluye una nueva variable (stepwise forward) o se elimina una variable (stepwise backward) y se determina si el modelo resultante mejora al anterior. El procedimiento stepwise forward-backward ajusta en primer lugar un modelo para cada una de las variables y, selecciona para entrar en el modelo final aquella variable que origine el mejor modelo. En el siguiente paso, parte del modelo con la variable introducida en el paso anterior y vuelve a calcular todos los modelos posibles que combinan dicha variable con cada una de las restantes, seleccionando para entrar en el modelo la mejor entre todas las que mejoran el modelo del paso anterior. Asimismo, en cada paso se analiza el modelo resultante si se eliminaran variables de los pasos anteriores (salvo el inmediatamente anterior). El procedimiento se repite hasta que en un determinado paso ningún modelo mejore al del paso anterior, quedándonos entonces con este último modelo como el modelo definitivo. La forma de determinar si un modelo mejora a otro o no es a través de contrastes de hipótesis. En los pasos en los que se prueba introducir una nueva variable, se realizan contrastes condicionales de razón de verosimilitudes con el modelo del paso anterior como hipótesis nula y cada uno de los nuevos como hipótesis alternativa en cada contraste. Aquellos contrastes cuyo p-valor sea inferior al 26

27 nivel de significación requerido determinarán las variables susceptibles de ser introducidas en el modelo en ese paso. Entre todas, se elegirá la más mejore el modelo, en el sentido de reducir más la devianza, con un p-valor adecuado. En los pasos en los que se prueba eliminar una variable, los contrastes tienen como hipótesis nula los modelos resultantes de eliminar cada una de las variables y como hipótesis alternativa el modelo que se tenía del paso anterior. En esta ocasión, las variables susceptibles de ser eliminadas serán aquellas cuyos modelos proporcionen un p-valor que supere el nivel de significación establecido, que por otra parte debe ser mayor que el nivel de significación fijado para la entrada de variables, de modo que se evite que salga la variable introducida en el paso anterior. Hay ciertos detalles que deben tenerse en cuenta cuando se está eligiendo el modelo definitivo. El primero de ellos hace referencia a las variables categóricas: si al menos una variable de diseño es significativa y decide dejarse en el modelo, todas y cada una de las variables de diseño asociadas a la misma variable categórica original deben permanecer en el modelo, sean o no significativas. En este caso se puede contrastar el modelo completo frente al modelo si se sacan todas las dummies de la variable categórica en bloque para tomar una decisión. También hay que tener en mente la recomendación de que el número total de variables en el modelo sea tal que haya al menos 10 individuos de la muestra para cada categoría de respuesta por cada variable del modelo 42. Para poder ajustar un modelo con 10 variables, por ejemplo, deberíamos tener al menos 100 individuos con respuesta Y=0 y otros 100 con respuesta Y=1. En el mejor de los casos (50%-50%) se requeriría una muestra de 200 personas, pero el tamaño total de la muestra se dispara si tenemos en cuenta que la distribución de la respuesta no suele ser equitativa sino muy desigual. Mención aparte merecen los conceptos de interacción 43 y confusión 44. En ciertas ocasiones ocurre que el grado de asociación de la variable respuesta Y y una variable explicativa X depende de los valores de otra variable explicativa X que se relaciona con X. Decimos entonces que tenemos una interacción de orden 1 entre esas variables. En general, una interacción de orden k es aquella que involucra k+1 variables predictoras, si bien es cierto que en la práctica suelen considerarse solo las de orden 1 porque interacciones de órdenes superiores complican demasiado el modelo y suelen ser difíciles de interpretar. No obstante, si la asociación entre Y y X cambia significativamente por el mero hecho de incluir X en el análisis, diremos que X es una variable de confusión. 27

28 Cada interacción entre variables continuas añade un sumando a la fórmula del modelo, estando dicho sumando formado por un coeficiente junto al producto de las variables que interaccionan. En el caso de dos variables categóricas, se añade al modelo un sumando por cada uno de los posibles productos cruzados entre sus variables de diseño. Si se tiene una variable continua interaccionando con una categórica, se incluye en el modelo el producto de la continua con cada una de las variables de diseño de las categóricas. Un último detalle que debe tenerse en cuenta si se introducen interacciones en el modelo es el conocido como principio jerárquico 43, que obliga a dejar en el modelo todos los términos de orden inferior, hasta las propias variables que forman parte de la interacción, aunque por sí solos no fuesen significativos : Validación y diagnosis. En el apartado se han ofrecido herramientas para contrastar la bondad global del ajuste. En éste se describen métodos para estudiar la bondad del ajuste observación a observación, así como la naturaleza de la falta de ajuste. Las técnicas más usadas son las de los residuos y las medidas de influencia. Podemos definir dos tipos de residuos distintos, dependiendo de si están basados en el estadístico o en el. Basados en se definen los residuos de Pearson o residuos estandarizados : 1 Estos residuos pueden ajustarse para que sigan una N(0,1) 45 : 1 con h el elemento diagonal de la matriz y 1. Entonces se contrasta la hipótesis nula de que los residuos son 0 frente a que no lo son, rechazando H cuando el residuo en valor absoluto es z. A veces los residuos no ajustados son tratados como N(0,1) para obviar el paso del ajuste. En ese caso se rechaza H si el valor absoluto del residuo es mayor que 2. Basados en se definen los residuos de la devianza o residuos estudentizados : 28

29 2 ln ln que pueden ajustarse igualmente para seguir una N(0,1), siendo la convergencia más rápida que en los residuos estandarizados: El contraste de hipótesis es similar al anterior. 1 Existe una última opción muy útil cuando los tamaños son pequeños. Se trata de los residuos de la devianza modificados : Si un resido resulta ser significativo, debe estudiarse su influencia sobre el ajuste del modelo a través de medidas de influencia como las distancias de Cook 46. Se define las distancias de Cook como: Y las distancias de Cook modificadas: Donde p es el estimador de p obtenido eliminando las observaciones para las que X x. Cada observación tiene su distancia y se considera significativa si es mayor que Aparte de los procedimientos anteriores, en estos casos resulta muy útil recurrir también a métodos gráficos. Podemos representar gráficamente los residuos frente a los valores predichos por el modelo ajustado y observar si están todos en una banda horizontal alrededor del 0, o bien representar gráficamente las observaciones frente a los valores predichos y observar si se mantienen en una banda en torno a la recta Y=x, como se sugiere en el libro de Aguilera

30 30

31 Capítulo 3 Aplicación en R El presente capítulo ofrece una descripción detallada del software utilizado para el análisis estadístico propuesto. El software elegido para tal efecto es el paquete estadístico R. Las razones de su elección son diversas: en primer lugar cabe destacar su cantidad y calidad de técnicas y funciones implementadas. Es reseñable también su manejabilidad, así como su versatilidad. Es fácilmente adaptable a una gran variedad de tareas. Además, es libre, accesible y tiene una mayor implantación en la comunidad científica, hasta el punto de considerarse un referente e incluso el estándar para el análisis de datos. En este trabajo se hace uso de la versión R con la Interfaz Gráfica de Usuario R-Commander, que permite hacer uso del entorno estadístico R de una forma mucho más intuitiva, dotando a R de una interfaz mucho más amigable de cara al usuario. Imagen 3.1: Consola de R (izquierda) e interfaz de R-Commander (derecha). 31

32 Como ya se detalló en la introducción del trabajo, R es un entorno para la estadística computacional y gráficos, que funciona en una amplia variedad de plataformas. En nuestro caso, Windows XP. Este lenguaje de órdenes ofrece un amplio abanico de posibilidades, entre las cuales detallaremos aquellas que respondan a las necesidades específicas de este proyecto, como son la estadística descriptiva y los modelos de respuesta discreta. Pero antes, veremos unas nociones básicas sobre el manejo de R, dejando, obviamente, cosas en el tintero que pueden consultarse tanto en la página oficial como en el centro de documentación o en otros artículos o libros publicados. En particular, se recomienda como libro de iniciación el de Arriaza et al Primeros pasos con R. Dedicaremos este apartado a lo que puede considerarse como una puesta a punto y unos primeros pasos antes de entrar de lleno en el análisis estadístico, de cara al usuario que se encuentre por primera vez con este software estadístico. Para instalar R, el usuario puede acudir a la página oficial 3 del Proyecto R, que tiene el inconveniente de no estar en castellano, y seguir las instrucciones según la plataforma sobre la que se desee instalar. También se podrán instalar paquetes adicionales y revisar la documentación. Además, dicha página es un punto de encuentro en el que se resuelven dudas y se intercambia información. Téngase en cuenta que, dada su naturaleza, R no ofrece un servicio de atención al cliente ni soporte técnico. Corresponderá, por tanto, a la propia comunidad científica solucionar los problemas derivados del uso de R, si queremos que el proyecto funcione. Imagen 3.2: Página oficial del proyecto R. 32

33 Una vez instalado R, la instalación de R-Commander es tan sencilla como ejecutar R y pinchar en Paquetes->Instalar Paquete(s), elegir el mirror de descarga, que en nuestro caso puede ser Spain (Madrid) y seleccionar Rcmdr. Para ejecutar R-Commander, es necesario escribir la orden library( Rcmdr ) en R. Si se cerrara R- Commander sin haber cerrado R, se puede volver a cargar mediante la orden Commander() Con R perfectamente operativo en nuestro ordenador, nos disponemos a realizar nuestros primeros análisis estadísticos. Pero antes necesitamos lo primordial, el elemento esencial para poder realizar cualquier estudio estadístico: los datos. Podemos tener datos de diversa índole y en muy diferente formato. Lo primero que debemos saber es cómo introducir esos datos en R. Existe, en primer lugar, la posibilidad de introducir esos datos manualmente. En R-Commander, debemos entrar en Datos->Nuevo conjunto de datos. Se nos pedirá que le demos un nombre al conjunto de datos y se abrirá la ventana del editor de datos, en forma de tabla, donde podremos introducirlos sin mayor dificultad, además de otorgarle nombre a cada variable e indicar el tipo de variable que es. Sencillamente hay que tener en cuenta que cada fila representa un caso y cada columna representa una variable. En la siguiente imagen vemos el editor de datos con un cuadro de diálogo abierto para una variable: Imagen 3.3: Editor de datos en R-Commander. En R, la orden para la creación de una base de datos es data.frame, pero antes de explicar esta orden, veamos cómo podemos crear un objeto en R y, en particular, un vector de valores o una matriz. 33

34 Para crear un objeto en R hay que escribir su nombre seguido de los caracteres que se muestran entrecomillados, <-, pero sin las comillas. A continuación se escribe la expresión deseada. Con ello hemos realizado una asignación y ahora el objeto que lleva por nombre el que pusimos a la izquierda del símbolo tiene asignado el valor a la derecha del símbolo. Para crear un vector debemos usar la orden c(), escribiendo dentro del paréntesis los valores de cada coordenada separados por comas. Para crear una matriz usamos la orden matrix(), especificando el número de filas con nrows y el número de columnas con ncol Volviendo a la creación de datos, la orden data.frame tiene la siguiente sintaxis: data.frame(..., row.names = NULL, check.rows = FALSE, check.names = TRUE, stringsasfactors = default.stringsasfactors()) Tanto ésta como el resto de sintaxis que veremos en este capítulo se pueden consultar en el centro de documentación de R, al cual podemos acceder directamente desde la consola de comandos escribiendo help(nombre-de-la-función). Para hacer uso de este comando, lo esencial es introducir al principio del paréntesis los datos del modo deseado, bien sea a través de listas o vectores creados previamente con órdenes como c(), generando valores o usando cualquier otra función cuya salida sea un conjunto de datos. Si se desea convertir alguna variable en factor, debe indicarse stringsasfactors=true. Recordemos que un factor es un tipo especial de vector que está formado por distintos niveles de la variable en cuestión, como en el caso de las variables cualitativas. El resto son argumentos que permiten indicar los nombres de las filas o hacer comprobaciones de consistencia. Una vez que tenemos creada nuestra base de datos, puede almacenarse y volver a cargarse en cualquier otro momento. Pero en la realidad, lo habitual es tener una base de datos en algún formato electrónico previo, de modo que no tengamos que generar los datos nosotros mismos, sino tan solo importarlos. R ofrece posibilidades también para esos casos. En particular, R es capaz de importar sin problema bases de datos que estén en formato 34

Aproximación local. Plano tangente. Derivadas parciales.

Aproximación local. Plano tangente. Derivadas parciales. Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación

Más detalles

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 1 de agosto de 2003 1. Introducción Cualquier modelo de una situación es una simplificación de la situación real. Por lo tanto,

Más detalles

Selectividad Septiembre 2013 OPCIÓN B

Selectividad Septiembre 2013 OPCIÓN B Pruebas de Acceso a las Universidades de Castilla y León ATEÁTICAS APLICADAS A LAS CIENCIAS SOCIALES EJERCICIO Nº páginas Tablas OPTATIVIDAD: EL ALUNO DEBERÁ ESCOGER UNA DE LAS DOS OPCIONES Y DESARROLLAR

Más detalles

Diagnosis y Crítica del modelo -Ajuste de distribuciones con Statgraphics-

Diagnosis y Crítica del modelo -Ajuste de distribuciones con Statgraphics- Diagnosis y Crítica del modelo -Ajuste de distribuciones con Statgraphics- 1. Introducción Ficheros de datos: TiempoaccesoWeb.sf3 ; AlumnosIndustriales.sf3 El objetivo de esta práctica es asignar un modelo

Más detalles

Instalación del programa PSPP y obtención de una distribución de frecuencias.

Instalación del programa PSPP y obtención de una distribución de frecuencias. Práctica 2. Instalación del programa PSPP y obtención de una distribución de frecuencias. Con esta práctica instalaremos el programa PSPP. El programa es un software específico para el análisis estadístico

Más detalles

Centro de Capacitación en Informática

Centro de Capacitación en Informática Fórmulas y Funciones Las fórmulas constituyen el núcleo de cualquier hoja de cálculo, y por tanto de Excel. Mediante fórmulas, se llevan a cabo todos los cálculos que se necesitan en una hoja de cálculo.

Más detalles

LABORATORIO Nº 2 GUÍA PARA REALIZAR FORMULAS EN EXCEL

LABORATORIO Nº 2 GUÍA PARA REALIZAR FORMULAS EN EXCEL OBJETIVO Mejorar el nivel de comprensión y el manejo de las destrezas del estudiante para utilizar formulas en Microsoft Excel 2010. 1) DEFINICIÓN Una fórmula de Excel es un código especial que introducimos

Más detalles

Los valores de las respuesta son las puntuaciones que, de cada individuo, o cluster, obtenemos semanalmente durante cinco semanas consecutivas:

Los valores de las respuesta son las puntuaciones que, de cada individuo, o cluster, obtenemos semanalmente durante cinco semanas consecutivas: Sobre los modelos lineales mixtos Ejemplo: Recuperación de infarto. Para estudiar las diferencias entre dos procedimientos diferentes de recuperación de pacientes de un infarto, se consideraron dos grupos

Más detalles

1. INVERSA DE UNA MATRIZ REGULAR

1. INVERSA DE UNA MATRIZ REGULAR . INVERSA DE UNA MATRIZ REGULAR Calcular la inversa de una matriz regular es un trabajo bastante tedioso. A través de ejemplos se expondrán diferentes técnicas para calcular la matriz inversa de una matriz

Más detalles

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS ANÁLISIS DE DATOS Hoy día vamos a hablar de algunas medidas de resumen de datos: cómo resumir cuando tenemos una serie de datos numéricos, generalmente en variables intervalares. Cuando nosotros tenemos

Más detalles

Asignatura: Econometría. Conceptos MUY Básicos de Estadística

Asignatura: Econometría. Conceptos MUY Básicos de Estadística Asignatura: Econometría Conceptos MUY Básicos de Estadística Ejemplo: encuesta alumnos matriculados en la UMH Estudio: Estamos interesados en conocer el nivel de renta y otras características de los estudiantes

Más detalles

Cálculo Simbólico también es posible con GeoGebra

Cálculo Simbólico también es posible con GeoGebra www.fisem.org/web/union ISSN: 1815-0640 Número 34. Junio de 2013 páginas 151-167 Coordinado por Agustín Carrillo de Albornoz Cálculo Simbólico también es posible con GeoGebra Antes de exponer las posibilidades

Más detalles

1.1. Introducción y conceptos básicos

1.1. Introducción y conceptos básicos Tema 1 Variables estadísticas Contenido 1.1. Introducción y conceptos básicos.................. 1 1.2. Tipos de variables estadísticas................... 2 1.3. Distribuciones de frecuencias....................

Más detalles

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES Tema 07 LÍMITES Y CONTINUIDAD DE FUNCIONES Límite de una función en un punto Vamos a estudiar el comportamiento de las funciones f ( ) g ( ) ENT[ ] h ( ) i ( ) en el punto Para ello, damos a valores próimos

Más detalles

MATEMÁTICAS CON LA HOJA DE CÁLCULO

MATEMÁTICAS CON LA HOJA DE CÁLCULO MATEMÁTICAS CON LA HOJA DE CÁLCULO Podemos dar a esta aplicación un uso práctico en el aula de Matemáticas en varios sentidos: Como potente calculadora: sucesiones, límites, tablas estadísticas, parámetros

Más detalles

TEMA 5. MUESTREO PARA LA ACEPTACIÓN.

TEMA 5. MUESTREO PARA LA ACEPTACIÓN. TEMA 5. MUESTREO PARA LA ACEPTACIÓN. Introducción. Planes de muestreo por atributos simple, doble, múltiple y rectificativos Dodge-Romig, Norma militar 1000STD-105D. Pautas a seguir para el cambio de rigor

Más detalles

CASO PRÁCTICO DISTRIBUCIÓN DE COSTES

CASO PRÁCTICO DISTRIBUCIÓN DE COSTES CASO PRÁCTICO DISTRIBUCIÓN DE COSTES Nuestra empresa tiene centros de distribución en tres ciudades europeas: Zaragoza, Milán y Burdeos. Hemos solicitado a los responsables de cada uno de los centros que

Más detalles

Unidad 5 Utilización de Excel para la solución de problemas de programación lineal

Unidad 5 Utilización de Excel para la solución de problemas de programación lineal Unidad 5 Utilización de Excel para la solución de problemas de programación lineal La solución del modelo de programación lineal (pl) es una adaptación de los métodos matriciales ya que el modelo tiene

Más detalles

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión...

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión... Tema 8 Análisis de dos variables: dependencia estadística y regresión Contenido 8.1. Introducción............................. 1 8.2. Dependencia/independencia estadística.............. 2 8.3. Representación

Más detalles

La ventana de Microsoft Excel

La ventana de Microsoft Excel Actividad N 1 Conceptos básicos de Planilla de Cálculo La ventana del Microsoft Excel y sus partes. Movimiento del cursor. Tipos de datos. Metodología de trabajo con planillas. La ventana de Microsoft

Más detalles

ESTIMACIÓN. puntual y por intervalo

ESTIMACIÓN. puntual y por intervalo ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio

Más detalles

Covarianza y coeficiente de correlación

Covarianza y coeficiente de correlación Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también

Más detalles

Programación Lineal. Ficha para enseñar a utilizar el Solver de EXCEL en la resolución de problemas de Programación Lineal

Programación Lineal. Ficha para enseñar a utilizar el Solver de EXCEL en la resolución de problemas de Programación Lineal Programación Lineal Ficha para enseñar a utilizar el Solver de EXCEL en la resolución de problemas de Programación Lineal Ejemplo: Plan de producción de PROTRAC En esta ficha vamos a comentar cómo se construyó

Más detalles

POR QUÉ EL VALOR PRESENTE NETO CONDUCE A MEJORES DECISIONES DE INVERSIÓN QUE OTROS CRITERIOS? ( Brealey & Myers )

POR QUÉ EL VALOR PRESENTE NETO CONDUCE A MEJORES DECISIONES DE INVERSIÓN QUE OTROS CRITERIOS? ( Brealey & Myers ) CAPÍTULO 5 POR QUÉ EL VALOR PRESENTE NETO CONDUCE A MEJORES DECISIONES DE INVERSIÓN QUE OTROS CRITERIOS? ( Brealey & Myers ) Ya hemos trabajado antes con los principios básicos de la toma de decisiones

Más detalles

Los números racionales

Los números racionales Los números racionales Los números racionales Los números fraccionarios o fracciones permiten representar aquellas situaciones en las que se obtiene o se debe una parte de un objeto. Todas las fracciones

Más detalles

Construyendo gráficos estadísticos con ayuda de Microsoft Excel

Construyendo gráficos estadísticos con ayuda de Microsoft Excel Construyendo gráficos estadísticos con ayuda de Microsoft Excel Eduardo Aguilar Fernández Universidad Nacional Heredia, Costa Rica eaguilar2@gmail.com Andrey Zamora Araya Universidad Nacional Heredia,

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Ejercicio Dada la matriz A = 0 2 0 a) Escribir explícitamente la aplicación lineal f : 2 cuya matriz asociada con respecto a las bases canónicas es A. En primer lugar definimos las

Más detalles

Métodos generales de generación de variables aleatorias

Métodos generales de generación de variables aleatorias Tema Métodos generales de generación de variables aleatorias.1. Generación de variables discretas A lo largo de esta sección, consideraremos una variable aleatoria X cuya función puntual es probabilidad

Más detalles

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES Tema: Cartas de Servicios Primera versión: 2008 Datos de contacto: Evaluación y Calidad. Gobierno de Navarra. evaluacionycalidad@navarra.es

Más detalles

Administración de Empresas. 11 Métodos dinámicos de evaluación de inversiones 11.1

Administración de Empresas. 11 Métodos dinámicos de evaluación de inversiones 11.1 Administración de Empresas. 11 Métodos dinámicos de evaluación de inversiones 11.1 TEMA 11: MÉTODOS DINÁMICOS DE SELECCIÓN DE INVERSIONES ESQUEMA DEL TEMA: 11.1. Valor actualizado neto. 11.2. Tasa interna

Más detalles

GESTIÓN Y CONTROL DEL DESARROLLO E IMPLANTACIÓN DE APLICACIONES

GESTIÓN Y CONTROL DEL DESARROLLO E IMPLANTACIÓN DE APLICACIONES Ciclo Formativo: Módulo: Desarrollo de Aplicaciones Informáticas Análisis y Diseño Detallado de Aplicaciones Informáticas de Gestión Unidad de Trabajo 10: GESTIÓN Y CONTROL DEL DESARROLLO E IMPLANTACIÓN

Más detalles

Manual de ayuda para crear y gestionar Tareas, como actividad evaluable

Manual de ayuda para crear y gestionar Tareas, como actividad evaluable Manual de ayuda para crear y gestionar Tareas, como actividad evaluable Contenido TAREAS.... 3 CONFIGURACIÓN.... 3 GESTIÓN Y CALIFICACIÓN DE TAREAS.... 8 TAREAS. Mediante esta herramienta podemos establecer

Más detalles

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor Tema 5 Aproximación funcional local: Polinomio de Taylor Teoría Los polinomios son las funciones reales más fáciles de evaluar; por esta razón, cuando una función resulta difícil de evaluar con exactitud,

Más detalles

EJEMPLO DE REPORTE DE LIBERTAD FINANCIERA

EJEMPLO DE REPORTE DE LIBERTAD FINANCIERA EJEMPLO DE REPORTE DE LIBERTAD FINANCIERA 1. Introduccio n El propósito de este reporte es describir de manera detallada un diagnóstico de su habilidad para generar ingresos pasivos, es decir, ingresos

Más detalles

Tema 5. Variables aleatorias discretas

Tema 5. Variables aleatorias discretas Tema 5. Variables aleatorias discretas Resumen del tema 5.1. Definición de variable aleatoria discreta 5.1.1. Variables aleatorias Una variable aleatoria es una función que asigna un número a cada suceso

Más detalles

Análisis y cuantificación del Riesgo

Análisis y cuantificación del Riesgo Análisis y cuantificación del Riesgo 1 Qué es el análisis del Riesgo? 2. Métodos M de Análisis de riesgos 3. Método M de Montecarlo 4. Modelo de Análisis de Riesgos 5. Qué pasos de deben seguir para el

Más detalles

Capitulo V Administración de memoria

Capitulo V Administración de memoria Capitulo V Administración de memoria Introducción. Una de las tareas más importantes y complejas de un sistema operativo es la gestión de memoria. La gestión de memoria implica tratar la memoria principal

Más detalles

Capítulo 3. Estimación de elasticidades

Capítulo 3. Estimación de elasticidades 1 Capítulo 3. Estimación de elasticidades Lo que se busca comprobar en esta investigación a través la estimación econométrica es que, conforme a lo que predice la teoría y lo que ha sido observado en gran

Más detalles

Análisis de propuestas de evaluación en las aulas de América Latina

Análisis de propuestas de evaluación en las aulas de América Latina Esta propuesta tiene como objetivo la operatoria con fracciones. Se espera del alumno la aplicación de un algoritmo para resolver las operaciones. Estas actividades comúnmente presentan numerosos ejercicios

Más detalles

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

FORMACIÓN DE EQUIPOS DE E-LEARNING 2.0 MÓDULO DE DISEÑO Y PRODUCCIÓN DE MATERIALES UNIDAD 6 B

FORMACIÓN DE EQUIPOS DE E-LEARNING 2.0 MÓDULO DE DISEÑO Y PRODUCCIÓN DE MATERIALES UNIDAD 6 B 141 1 FORMACIÓN DE EQUIPOS DE E-LEARNING 2.0 Unidad 6 B 142 2 Índice SEGUIMIENTO DE PERSONAS 1 INFORMES 2 143 3 SEGUIMIENTO DE PERSONAS E INFORMES EN MOODLE El seguimiento de los participantes en Moodle

Más detalles

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice 1 Polinomios Dedicaremos este apartado al repaso de los polinomios. Se define R[x] ={a 0 + a 1 x + a 2 x 2 +... +

Más detalles

Introducción a la estadística y SPSS

Introducción a la estadística y SPSS Introducción a la estadística y SPSS Marcelo Rodríguez Ingeniero Estadístico - Magister en Estadística Universidad Católica del Maule Facultad de Ciencias Básicas Pedagogía en Matemática Estadística I

Más detalles

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Francisco José González Gutiérrez Cádiz, Octubre de 2004 Universidad de Cádiz Departamento de Matemáticas ii Lección 1 Conjuntos y Subconjuntos

Más detalles

MATEMÁTICAS aplicadas a las Ciencias Sociales II

MATEMÁTICAS aplicadas a las Ciencias Sociales II MATEMÁTICAS aplicadas a las Ciencias Sociales II UNIDAD 1: SISTEMAS DE ECUACIONES. MÉODO DE GAUSS Sistemas de ecuaciones lineales Sistemas equivalentes. Transformaciones que mantienen la equivalencia.

Más detalles

El concepto de asociación estadística. Tema 6 Estadística aplicada Por Tevni Grajales G.

El concepto de asociación estadística. Tema 6 Estadística aplicada Por Tevni Grajales G. El concepto de asociación estadística Tema 6 Estadística aplicada Por Tevni Grajales G. En gran medida la investigación científica asume como una de sus primera tareas, identificar las cosas (características

Más detalles

Interpolación polinómica

Interpolación polinómica 9 9. 5 9. Interpolación de Lagrange 54 9. Polinomio de Talor 57 9. Dados dos puntos del plano (, ), (, ), sabemos que ha una recta que pasa por ellos. Dicha recta es la gráfica de un polinomio de grado,

Más detalles

UNIDAD I NÚMEROS REALES

UNIDAD I NÚMEROS REALES UNIDAD I NÚMEROS REALES Los números que se utilizan en el álgebra son los números reales. Hay un número real en cada punto de la recta numérica. Los números reales se dividen en números racionales y números

Más detalles

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2015 MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES TEMA 1: MATRICES. Junio, Ejercicio 1, Opción B

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2015 MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES TEMA 1: MATRICES. Junio, Ejercicio 1, Opción B PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 015 MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES TEMA 1: MATRICES Junio, Ejercicio 1, Opción B 3 Sean las matrices A 0 3, B y C 0 1 1 5 1 3 0 a) Calcule las

Más detalles

TEMA 3: EN QUÉ CONSISTE?

TEMA 3: EN QUÉ CONSISTE? Módulo 7 Sesión 3 5/16 TEMA 3: EN QUÉ CONSISTE? La metodología seguida para aplicar correctamente la técnica de RGT se basa en cuatro fases (Figura 1). En la primera de ellas, se seleccionan los elementos

Más detalles

Tema 2 Límites de Funciones

Tema 2 Límites de Funciones Tema 2 Límites de Funciones 2.1.- Definición de Límite Idea de límite de una función en un punto: Sea la función. Si x tiende a 2, a qué valor se aproxima? Construyendo - + una tabla de valores próximos

Más detalles

Lección 24: Lenguaje algebraico y sustituciones

Lección 24: Lenguaje algebraico y sustituciones LECCIÓN Lección : Lenguaje algebraico y sustituciones En lecciones anteriores usted ya trabajó con ecuaciones. Las ecuaciones expresan una igualdad entre ciertas relaciones numéricas en las que se desconoce

Más detalles

ANÁLISIS DE DATOS NO NUMERICOS

ANÁLISIS DE DATOS NO NUMERICOS ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas

Más detalles

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual Introducción Algunas de las personas que trabajan con SGBD relacionales parecen preguntarse porqué deberían preocuparse del diseño de las bases de datos que utilizan. Después de todo, la mayoría de los

Más detalles

Comparaciones de pobreza y desigualdad

Comparaciones de pobreza y desigualdad Comparaciones de pobreza y desigualdad El problema de la pobreza en una sociedad puede ser evaluado desde tres perspectivas complementarias entre sí : Las medidas de incidencia. Informan acerca de la extensión

Más detalles

UNIVERSIDADES DE ANDALUCÍA PRUEBA DE ACCESO A LA UNIVERSIDAD OPCIÓN A

UNIVERSIDADES DE ANDALUCÍA PRUEBA DE ACCESO A LA UNIVERSIDAD OPCIÓN A OPCIÓN A (3 puntos) Una imprenta local edita periódicos y revistas. Para cada periódico necesita un cartucho de tinta negra y otro de color, y para cada revista uno de tinta negra y dos de color. Si sólo

Más detalles

Selectividad Septiembre 2009 SEPTIEMBRE 2009. Opción A

Selectividad Septiembre 2009 SEPTIEMBRE 2009. Opción A SEPTIEMBRE 2009 Opción A 1.- Como cada año, el inicio del curso académico, una tienda de material escolar prepara una oferta de 600 cuadernos, 500 carpetas y 400 bolígrafos para los alumnos de un IES,

Más detalles

PRÁCTICAS DE GESTIÓN GANADERA:

PRÁCTICAS DE GESTIÓN GANADERA: PRÁCTICAS DE GESTIÓN GANADERA: MANEJO DE HOJA DE CÁCULO (EXCEL) 1. INTRODUCCIÓN AL MANEJO DE EXCEL La pantalla del programa consta de una barra de herramientas principal y de una amplia cuadrícula compuesta

Más detalles

1. Introducción a la estadística 2. Estadística descriptiva: resumen numérico y gráfico de datos 3. Estadística inferencial: estimación de parámetros

1. Introducción a la estadística 2. Estadística descriptiva: resumen numérico y gráfico de datos 3. Estadística inferencial: estimación de parámetros TEMA 0: INTRODUCCIÓN Y REPASO 1. Introducción a la estadística 2. Estadística descriptiva: resumen numérico y gráfico de datos 3. Estadística inferencial: estimación de parámetros desconocidos 4. Comparación

Más detalles

UNEDpSI: Un programa didáctico de análisis de datos en Psicología. Área Temática: Universidades virtuales y centros de educación a distancia.

UNEDpSI: Un programa didáctico de análisis de datos en Psicología. Área Temática: Universidades virtuales y centros de educación a distancia. UNEDpSI: Un programa didáctico de análisis de datos en Psicología. Área Temática: Universidades virtuales y centros de educación a distancia. Ángel Villarino y Pedro Rodríguez-Miñón. (avillarino@psi.uned.es

Más detalles

1-Comportamiento de una función alrededor de un punto:

1-Comportamiento de una función alrededor de un punto: Matemática II 7 Modulo Límites continuidad En esta sección desarrollaremos el concepto de límite, una de las nociones fundamentales del cálculo. A partir de este concepto se desarrollan también los conceptos

Más detalles

ANALISIS MULTIVARIANTE

ANALISIS MULTIVARIANTE ANALISIS MULTIVARIANTE Es un conjunto de técnicas que se utilizan cuando se trabaja sobre colecciones de datos en las cuáles hay muchas variables implicadas. Los principales problemas, en este contexto,

Más detalles

ÍNDICE. Ficha técnica... 4. Encuesta y cuestionario... 6. Finalidad y resultados de la encuesta... 10 10. Primera parte: conocimiento...

ÍNDICE. Ficha técnica... 4. Encuesta y cuestionario... 6. Finalidad y resultados de la encuesta... 10 10. Primera parte: conocimiento... ÍNDICE Ficha técnica... 4 Encuesta y cuestionario... 6 Finalidad y resultados de la encuesta... 10 10 Primera parte: conocimiento... 12 Segunda parte: modo de conocimiento y valoración... 18 Tercera parte:

Más detalles

HERRAMIENTAS DE EXCEL PARA EL ANALISIS Y VALORACION DE PROYECTOS DE INVERSION (I)

HERRAMIENTAS DE EXCEL PARA EL ANALISIS Y VALORACION DE PROYECTOS DE INVERSION (I) Revista de Dirección y Administración de Empresas. Número 10, diciembre 2002 págs. 59-76 Enpresen Zuzendaritza eta Administraziorako Aldizkaria. 10. zenbakia, 2002 abendua 59-76 orr. HERRAMIENTAS DE EXCEL

Más detalles

35 Facultad de Ciencias Universidad de Los Andes Mérida-Venezuela. Potencial Eléctrico

35 Facultad de Ciencias Universidad de Los Andes Mérida-Venezuela. Potencial Eléctrico q 1 q 2 Prof. Félix Aguirre 35 Energía Electrostática Potencial Eléctrico La interacción electrostática es representada muy bien a través de la ley de Coulomb, esto es: mediante fuerzas. Existen, sin embargo,

Más detalles

Una experiencia en la enseñanza de los primeros cursos del área matemática.

Una experiencia en la enseñanza de los primeros cursos del área matemática. Una experiencia en la enseñanza de los primeros cursos del área matemática. Rodolfo Carvajal y Martín Matamala Departamento de Ingeniería Matemática, Facultad de Ciencias Físicas y Matemáticas, Universidad

Más detalles

LA IMPORTANCIA DE CONTROLAR LAS PÉRDIDAS DE ENERGÍA EN LAS EMPRESAS DISTRIBUIDORAS

LA IMPORTANCIA DE CONTROLAR LAS PÉRDIDAS DE ENERGÍA EN LAS EMPRESAS DISTRIBUIDORAS LA IMPORTANCIA DE CONTROLAR LAS PÉRDIDAS DE ENERGÍA EN LAS EMPRESAS DISTRIBUIDORAS Objetivo El presente informe se ha escrito con la finalidad de establecer un marco objetivo como punto de partida para

Más detalles

MICROECONOMÍA MICROECONOMÍA

MICROECONOMÍA MICROECONOMÍA MICROECONOMÍA MICROECONOMÍA INTRODUCCIÓN A LA MICROECONOMÍA. OBJETIVOS El alumno deberá ser capaz de comprender cómo se realiza el proceso de satisfacción de necesidades utilizando eficientemente sus recursos

Más detalles

Manual de usuario para Android de la aplicación PORTAFIRMAS MÓVIL

Manual de usuario para Android de la aplicación PORTAFIRMAS MÓVIL Manual de usuario para Android de la aplicación PORTAFIRMAS MÓVIL Índice 1 Introducción... 5 1.1 Perfil de la aplicación... 5 1.2 Requisitos técnicos... 5 2 Manual de usuario... 7 2.1 Instalación del certificado...

Más detalles

4. METODOLOGÍA. 4.1 Materiales. 4.1.1 Equipo

4. METODOLOGÍA. 4.1 Materiales. 4.1.1 Equipo 4. METODOLOGÍA 4.1 Materiales 4.1.1 Equipo Equipo de cómputo. Para el empleo del la metodología HAZOP se requiere de un equipo de cómputo con interfase Windows 98 o más reciente con procesador Pentium

Más detalles

Instrucción IrA (GoTo). Saltos no naturales en el flujo normal de un programa. Pseudocódigo y diagramas de flujo. (CU00182A)

Instrucción IrA (GoTo). Saltos no naturales en el flujo normal de un programa. Pseudocódigo y diagramas de flujo. (CU00182A) aprenderaprogramar.com Instrucción IrA (GoTo). Saltos no naturales en el flujo normal de un programa. Pseudocódigo y diagramas de flujo. (CU00182A) Sección: Cursos Categoría: Curso Bases de la programación

Más detalles

Funciones CONJUNTO EXCEL 2013 AVANZADO

Funciones CONJUNTO EXCEL 2013 AVANZADO EXCEL 2013 AVANZADO Esta función contará la cantidad de celdas que contengan palabras de cuatro letras y que terminen con la A. El asterisco cumple una función similar, pero la diferencia radica en que

Más detalles

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

T.1 CONVERGENCIA Y TEOREMAS LÍMITE T.1 CONVERGENCIA Y TEOREMAS LÍMITE 1. CONVERGENCIA DE SUCESIONES DE VARIABLES ALEATORIA CONVERGENCIA CASI-SEGURA CONVERGENCIA EN PROBABILIDAD CONVERGENCIA EN MEDIA CUADRÁTICA CONVERGENCIA EN LEY ( O DISTRIBUCIÓN)

Más detalles

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales.

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Introducción Por qué La Geometría? La Geometría tiene como objetivo fundamental

Más detalles

OPCIÓN A 0 1 X = 1 12. Podemos despejar la matriz X de la segunda ecuación ya que la matriz. 1 1 ; Adj 0 1 X =

OPCIÓN A 0 1 X = 1 12. Podemos despejar la matriz X de la segunda ecuación ya que la matriz. 1 1 ; Adj 0 1 X = Selectividad Junio 011 Pruebas de Acceso a las Universidades de Castilla y León MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES EJERCICIO Nº páginas Tablas OPTATIVIDAD: EL ALUMNO/A DEBERÁ ESCOGER UNO DE

Más detalles

PROPUESTAS COMERCIALES

PROPUESTAS COMERCIALES PROPUESTAS COMERCIALES 1. Alcance... 2 2. Entidades básicas... 2 3. Circuito... 2 3.1. Mantenimiento de rutas... 2 3.2. Añadir ofertas... 5 3.2.1. Alta desde CRM... 5 3.2.2. Alta desde el módulo de Propuestas

Más detalles

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define. VECTORES El estudio de los vectores es uno de tantos conocimientos de las matemáticas que provienen de la física. En esta ciencia se distingue entre magnitudes escalares y magnitudes vectoriales. Se llaman

Más detalles

Teóricas de Análisis Matemático (28) - Práctica 4 - Límite de funciones. 1. Límites en el infinito - Asíntotas horizontales

Teóricas de Análisis Matemático (28) - Práctica 4 - Límite de funciones. 1. Límites en el infinito - Asíntotas horizontales Práctica 4 - Parte Límite de funciones En lo que sigue, veremos cómo la noción de límite introducida para sucesiones se etiende al caso de funciones reales. Esto nos permitirá estudiar el comportamiento

Más detalles

PRUEBAS NO PARAMÉTRICAS

PRUEBAS NO PARAMÉTRICAS PRUEBAS NO PARAMÉTRICAS 1. PRUEBAS DE NORMALIDAD Para evaluar la normalidad de un conjunto de datos tenemos el Test de Kolmogorov- Smirnov y el test de Shapiro-Wilks La opción NNPLOT del SPSS permite la

Más detalles

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Universidad de Cádiz Departamento de Matemáticas MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Tema 4 La recta en el plano Elaborado por la Profesora Doctora María Teresa

Más detalles

Los polinomios. Un polinomio es una expresión algebraica con una única letra, llamada variable. Ejemplo: 9x 6 3x 4 + x 6 polinomio de variable x

Los polinomios. Un polinomio es una expresión algebraica con una única letra, llamada variable. Ejemplo: 9x 6 3x 4 + x 6 polinomio de variable x Los polinomios Los polinomios Un polinomio es una expresión algebraica con una única letra, llamada variable. Ejemplo: 9x 6 3x 4 + x 6 polinomio de variable x Elementos de un polinomio Los términos: cada

Más detalles

MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS

MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS 1 MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS Medidas de tendencia central Menú Analizar: Los comandos del menú Analizar (Estadística) ejecutan los procesamientos estadísticos. Sus comandos están

Más detalles

Fórmulas y funciones

Fórmulas y funciones 05... Fórmulas y funciones En este tema vamos a profundizar en el manejo de funciones ya definidas por Excel, con el objetivo de agilizar la creación de hojas de cálculo, estudiando la sintaxis de éstas

Más detalles

Muestreo. Introducción

Muestreo. Introducción Muestreo Introducción En este documento ofrecemos un resumen sobre el concepto de muestreo, y los tipos de muestreo existentes. Además, adjuntamos una hoja para el cálculo de tamaños muestrales en auditorías

Más detalles

La Evaluación como Proceso Comparación de Costos y Beneficios. Pedro Misle Benítez / Gustavo Briceño Torres

La Evaluación como Proceso Comparación de Costos y Beneficios. Pedro Misle Benítez / Gustavo Briceño Torres La Evaluación como Proceso Comparación de Costos y Beneficios Pedro Misle Benítez / Gustavo Briceño Torres ACTUALIZACIÓN DE COSTOS Y BENEFICIOS Establecido el Flujo de Fondos para el horizonte del Proyecto,

Más detalles

MODELOS DE RECUPERACION

MODELOS DE RECUPERACION RECUPERACIÓN Y ORGANIZACIÓN DE LA INFORMACIÓN INGENIERÍA INFORMÁTICA RECUPERACIÓN Y ACCESO A LA INFORMACIÓN MODELOS DE RECUPERACION AUTOR: Rubén García Broncano NIA 100065530 grupo 81 1 INDICE 1- INTRODUCCIÓN

Más detalles

a < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)

a < b y se lee a es menor que b (desigualdad estricta) a > b y se lee a es mayor que b (desigualdad estricta) Desigualdades Dadas dos rectas que se cortan, llamadas ejes (rectangulares si son perpendiculares, y oblicuos en caso contrario), un punto puede situarse conociendo las distancias del mismo a los ejes,

Más detalles

CIIF CENTRO INTERNACIONAL DE INVESTIGACION FINANCIERA

CIIF CENTRO INTERNACIONAL DE INVESTIGACION FINANCIERA I E S E Universidad de Navarra CIIF CENTRO INTERNACIONAL DE INVESTIGACION FINANCIERA INFORME SOBRE LA RELACION ENTRE CONSUMO, MOROSIDAD Y CICLOS BURSATILES Miguel A. Ariño* María Coello de Portugal** DOCUMENTO

Más detalles

Adaptación al NPGC. Introducción. NPGC.doc. Qué cambios hay en el NPGC? Telf.: 93.410.92.92 Fax.: 93.419.86.49 e-mail:atcliente@websie.

Adaptación al NPGC. Introducción. NPGC.doc. Qué cambios hay en el NPGC? Telf.: 93.410.92.92 Fax.: 93.419.86.49 e-mail:atcliente@websie. Adaptación al NPGC Introducción Nexus 620, ya recoge el Nuevo Plan General Contable, que entrará en vigor el 1 de Enero de 2008. Este documento mostrará que debemos hacer a partir de esa fecha, según nuestra

Más detalles

Una nueva visión de la capacidad jurídica: algunas reflexiones con ocasión del Día Mundial de Concienciación sobre el Autismo.

Una nueva visión de la capacidad jurídica: algunas reflexiones con ocasión del Día Mundial de Concienciación sobre el Autismo. Una nueva visión de la capacidad jurídica: algunas reflexiones con ocasión del Día Mundial de Concienciación sobre el Autismo. Patricia Cuenca Gómez Instituto de Derechos Humanos Bartolomé de las Casas

Más detalles

Hoja1!C4. Hoja1!$C$4. Fila

Hoja1!C4. Hoja1!$C$4. Fila CAPÍTULO 6......... Cálculo y funciones con Excel 2000 6.1.- Referencias De Celdas Como vimos con anterioridad en Excel 2000 se referencian las celdas por la fila y la columna en la que están. Además como

Más detalles

LA MEDIDA Y SUS ERRORES

LA MEDIDA Y SUS ERRORES LA MEDIDA Y SUS ERRORES Magnitud, unidad y medida. Magnitud es todo aquello que se puede medir y que se puede representar por un número. Para obtener el número que representa a la magnitud debemos escoger

Más detalles

TEMA V TEORÍA DE CUADRIPOLOS LINEALES. 5.1.-Introducción. 5.2.-Parámetros de Impedancia a circuito abierto.

TEMA V TEORÍA DE CUADRIPOLOS LINEALES. 5.1.-Introducción. 5.2.-Parámetros de Impedancia a circuito abierto. TEMA V TEORÍA DE CUADRIPOLOS LINEALES 5.1.-Introducción. 5.2.-Parámetros de Impedancia a circuito abierto. 5.3.-Parámetros de Admitancia a cortocircuito. 5.4.-Parámetros Híbridos (h, g). 5.5.-Parámetros

Más detalles

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones Fracciones. Las fracciones y los números Racionales Las fracciones se utilizan cotidianamente en contextos relacionados con la medida, el reparto o como forma de relacionar dos cantidades. Tenemos entonces

Más detalles

LÍMITES Y CONTINUIDAD DE FUNCIONES

LÍMITES Y CONTINUIDAD DE FUNCIONES Capítulo 9 LÍMITES Y CONTINUIDAD DE FUNCIONES 9.. Introducción El concepto de ite en Matemáticas tiene el sentido de lugar hacia el que se dirige una función en un determinado punto o en el infinito. Veamos

Más detalles

CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas

CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas CAPÍTULO 10 Aplicaciones de la Derivada a Funciones Económicas Introducción En la economía, la variación de alguna cantidad con respecto a otra puede ser descrita por un concepto promedio o por un concepto

Más detalles

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1 . ESPACIOS VECTORIALES Consideremos el siguiente subconjunto de R 4 : S = {(x, x 2, x 3, x 4 )/x x 4 = 0 x 2 x 4 = x 3 a. Comprobar que S es subespacio vectorial de R 4. Para demostrar que S es un subespacio

Más detalles

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario)

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario) Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS (Solucionario) 2 Í N D I C E CAPÍTULO : MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES CAPÍTULO 2: ESPACIOS VECTORIALES

Más detalles

x 10000 y 8000 x + y 15000 a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas.

x 10000 y 8000 x + y 15000 a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas. Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta A 1. Queremos realizar una inversión en dos tipos

Más detalles

CUESTIONES DE AUTOEVALUACIÓN (TEMA 1)

CUESTIONES DE AUTOEVALUACIÓN (TEMA 1) CUESTIONES DE AUTOEVALUACIÓN (TEMA 1) Cuestiones de Verdadero/Falso 1. Un estadístico es una característica de una población. 2. Un parámetro es una característica de una población. 3. Las variables discretas

Más detalles