Universidad de Granada Departamento de Estadística e Investigación Operativa

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Universidad de Granada Departamento de Estadística e Investigación Operativa"

Transcripción

1 Universidad de Granada Departamento de Estadística e Investigación Operativa CONFIABILIDAD: FIABILIDAD Y MANTENIBILIDAD Análisis Paramétrico y no Paramétrico en R Trabajo Fin de Máster Universitario en Estadística Aplicada Silverio Navarrete Muela Tutor: Dr. D. Rafael Pérez Ocón Granada, Septiembre de 2014

2

3 Trabajo Fin de Máster CONFIABILIDAD: FIABILIDAD Y MANTENIBILIDAD Análisis Paramétrico y no Paramétrico en R Vº Bº El Tutor Fdo.: Silverio Navarrete Muela Fdo.: Dr. D. Rafael Pérez Ocón Granada, Septiembre de 2014

4

5 A la memoria de las personas que ya no están, pero siguen estando presentes cada día. A mi hermano Juan Manuel y mis padres Silverio y Adela

6

7 Resumen En los últimos años se ha producido una revolución en el uso de métodos estadísticos para mejorar la calidad de productos y servicios, apareciendo nuevas filosofías como TPM, Lean o la metodología Seis Sigma. Pero es, sin duda, el interés por la mejora de la calidad en función del tiempo, uno de los eslabones en los que más se está innovando. La confiabilidad de un producto es un término colectivo que se usa para describir la disponibilidad de un producto y sus factores de influencia, esto es, fiabilidad, mantenibilidad y logística de mantenimiento. Para evaluar los valores obtenidos de las características de confiabilidad es necesario empleo de métodos estadísticos. Este TFM presenta un estudio teórico-práctico sobre fiabilidad y mantenibilidad basándose para ello en el desarrollo de funciones en R (software de libre uso), Siendo éste un lenguaje y entorno de programación orientado a objetos para análisis estadístico y gráfico. Se ha realizado una introducción al proceso de análisis de observaciones de tiempos hasta el fallo MTTF y tiempos de reparación MTTR mediante métodos gráficos, no paramétricos y paramétricos, obteniendo la distribución teórica optima en cada caso, con comparativas de los métodos de cálculo de los parámetros obtenidos y realizándose análisis de inferencia estadística. Finalmente, se ha validado el modelo teórico mediante generación y ajuste de variables aleatorias de la distribución seleccionada en cada caso. R.1

8 R.2

9 Tabla de Contenido Tabla de Contenido Resumen... 1 Tabla de Contenido... 1 Listado de Figuras... 1 Listado de Tablas... 1 Capítulo I. Introducción Antecedentes Objetivos de la Investigación Estructura del TFM... 4 Capítulo II. Fundamentos Teóricos Introducción Conceptos Fundamentales Confiabilidad Coste del Ciclo de Vida Costes Relativos a la Confiabilidad Disponibilidad Fiabilidad Fiabilidad en Función del Tiempo Medidas de Fiabilidad Distribuciones Estadísticas Distribución Normal Distribución Log-Normal Distribución Exponencial Distribución Weibull Distribución de Gamma Distribución Erlang Mantenibilidad Soporte de Mantenimiento Métodos Estadísticos de Estimación de la Fiabilidad y el Mantenimiento Características de los Datos Censura Censura por la Derecha Censura Tipo I Censura Tipo II Censura Tipo III o Aleatoria C.1

10 Tabla de Contenido Censura por la Izquierda Censura por Intervalo Truncamiento Truncamiento por la Izquierda Truncamiento por la Derecha Estimación no Paramétrica Tablas de Vida Estimador de Kaplan-Meier (KM) de la Función de Fiabilidad Intervalo de Confianza Usando la Transformación log Intervalo de Confianza Usando la Transformación log-log Propiedades del Estimador Kaplan-Meier Estimador de Kaplan- Meier Ponderado (KMP) Estimador Nelson-Aalen (NA) de la Función de Riesgo Acumulado Estimadores de la Función de Fiabilidad para Datos Truncados a la Izquierda y Censurados a la Derecha Estimador de Turnbull Estimador de Nelson-Aalen Extendido (NAE) Comparación de Funciones de Fiabilidad Estimación Paramétrica Estimación Gráfica Estimación con Datos no Censurados Linealización de una Distribución Linealización de la f.d. Asociada a una Distribución Exponencial Linealización de la f.d. Asociada a una Distribución Weibull Construcción de Plantillas Especiales para Gráficos de Probabilidad Estimación de la f.d. Empírica Identificación Grafica de la Distribución de Ajuste Estimación con Datos Censurados Construcción del Gráfico de Riesgo (Hazard Plots) Estimación Empírica de Riesgo Acumulado para Weibull Estimación Puntual Estimación por Mínimos Cuadrados (Least Squares Method (LSM)) Estimación de Parámetros para la Distribución Exponencial Estimación de Parámetros para la Distribución Weibull Estimación por Máxima Verosimilitud (Maximum Likelihood Estimator (MLE)) Estimación de Parámetros en Observaciones Completas C.2

11 Tabla de Contenido Estimación de Parámetros para la Distribución Exponencial Estimación de Parámetros para la Distribución Weibull Estimación de Parámetros en Observaciones Censuradas Estimación de Parámetros para la Distribución Exponencial Estimación de Parámetros para la Distribución Weibull Estimación por Momentos (Method of Moments (MOM)) Estimación de Parámetros en Observaciones Completas Estimación de Parámetros para la Distribución Exponencial Estimación de Parámetros para la Distribución Weibull Estimación de Parámetros en Observaciones Censuradas Estimación de Parámetros para la Distribución Exponencial Estimación de Parámetros para la Distribución Weibull Estimación de parámetros por Intervalos de Confianza Estimación General Estimación de Intervalo en Observaciones Completas Estimación de Intervalo en Observaciones Censuradas Estimación de Intervalo para la Distribución Exponencial con Censura Tipo II Estimación de Intervalo para la Distribución Exponencial con Censura Tipo I Estimación por Máxima Verosimilitud Estimación por Mínimos Cuadrados Contraste de Hipótesis Estadístico de Contraste Tipos de Errores Tipos de Contrastes Bondad de Ajuste Muestras Categorizadas Test de Pearson o Chi-Cuadrado Test G (Razón de Verosimilitud) Muestras no Categorizadas Test de Kolmogorov-Smirnov Test de Cramér-von Misses Test de Anderson-Darling Test de Normalidad de Shapiro-Wilk Coeficiente de Determinación R C.3

12 Tabla de Contenido 2.4. Fiabilidad en Sistemas Sistemas Coherentes Sistema en Serie Sistema en Paralelo Sistema Mixto Función de Fiabilidad Fiabilidad de un Sistema en Paralelo Redundancia Análisis Mediante Arboles de Fallo Capítulo III. Metodología Experimental Procedimiento Metodológico... 2 Capítulo IV. Resultados y Análisis Aplicación Práctica Introducción Características de los datos Análisis Fiabilidad de tiempos de Operación TTF Análisis Descriptivo Análisis No Paramétrico Función de Supervivencia Función de Distribución o de Probabilidad Función de Riesgo Acumulado Ajuste de Datos Tiempo-Evento (supervivencia) a Modelos Paramétricos Función de Supervivencia (Fiabilidad) S(T) Función de Riesgo (Fallo) h(t) Función de Riesgo (Fallo) Acumulado Estimación no Paramétrica Análisis Paramétrico Estimación Grafica Estimación Grafica Paramétrica Estimación Puntual Estimación por Mínimos Cuadrados Estimación por Máxima Verosimilitud Estimaciones para Observaciones Completas Estimaciones para Observaciones con Censura Estimación por Momentos C.4

13 Tabla de Contenido Estimación de Parámetros por Intervalos Estimación por Mínimos Cuadrados Estimación por Máxima Verosimilitud Estimación por Momentos Comparación de Métodos de Estimación de Parámetros Bondad de Ajuste Test de Bondad de Ajuste para Mínimos Cuadrados Interpretación de los Resultados ANOVA y Test de Independencia Lineal Análisis de Varianza del Modelo de Regresión Lineal Test de Independencia Lineal y Correlación Lineal Test de la Bondad Mediante Estadísticos Propiedades de Fiabilidad Función de Densidad f(t) Función de Distribución F(t) Función de Fiabilidad R(t) o Supervivencia S(t) Función de Riesgo o Tasa de Fallo h(t) Función de Riesgo Acumulado H(t) Media o Esperanza Matemática θ = E[T] Varianza Var[T] p-cuantil Análisis Comparativo no Paramétrico y Paramétrico Función de Distribución F(t) Función de Fiabilidad R(t) o Supervivencia S(t) Función de Riesgo o Tasa de Fallo h(t) Función de Riesgo Acumulado H(t) Análisis de Mantenimiento del Tiempo de Reparación TTR Análisis Descriptivo Análisis Paramétrico Estimación Grafica Estimación Grafica Paramétrica Estimación Puntual Estimación por Mínimos Cuadrados Estimación por Máxima Verosimilitud Estimaciones para Observaciones Completas C.5

14 Tabla de Contenido Estimaciones para Observaciones con Censura Estimación por Momentos Estimación de Parámetros por Intervalos Estimación por Mínimos Cuadrados Estimación por Máxima Verosimilitud Comparación de Métodos de Estimación de Parámetros Bondad de Ajuste Test de Bondad de ajuste para Mínimos Cuadrados Interpretación de los resultados ANOVA y Test de independencia lineal Análisis de varianza del modelo de regresión lineal Test de independencia lineal y correlación lineal Test de la Bondad Mediante Estadísticos Propiedades del Mantenimiento Función de Densidad de Probabilidad de Reparación f(t) Función de Mantenibilidad M(t) Función de no Reparabilidad R r(t) Función de Tasa de Reparación h(t) Función de Tasa de Reparación Acumulada H(t) Media o Esperanza Matemática θ = E[T] Varianza Var[T] p-cuantil Análisis No Paramétrico Función de no Reparabilidad Función de Mantenibilidad M(t) Función Tasa de Reparación Acumulada Ajuste de Datos Tiempo-Evento (no Reparabilidad) a Modelos Paramétricos Función de no Reparabilidad Función de Tasa de Reparación h(t) Función de Tasa de Reparación Acumulada Estimación No Paramétrica Análisis Comparativo no Paramétrico y Paramétrico Función de Mantenibilidad M(t) Función de no Reparabilidad R r(t) Función de Tasa de Reparación h(t) Función de Tasa de Reparación Acumulada H(t) C.6

15 Tabla de Contenido 4.4. Análisis Disponibilidad Simulación Introducción Variables Aleatorias de una Distribución Weibull Generación de Variables Aleatorias de una Distribución Weibull Análisis de Ajuste de Valores a la Distribución Weibull Resultados Gráficos de Simulación para una Muestra de n = Resultados Gráficos de Simulación para una Muestra de n = Resultados Gráficos de Simulación para una Muestra de n = Resumen de los Test de MSE y de las Pruebas de Bondad de Ajuste Variables Aleatorias de una Distribución Log-Normal Generación de Variables Aleatorias de una Distribución Log-Normal Análisis de Ajuste de Valores a la Distribución Log-Normal Resultados Gráficos de Simulación para una Muestra de n = Resultados Gráficos de Simulación para una Muestra de n = Resultados Gráficos de Simulación para una Muestra de n = Resumen de los Test de MSE y de las Pruebas de Bondad de Ajuste Capítulo V. Conclusiones Finales y Líneas de Investigación Futuras Conclusiones Finales Líneas de Investigación Futuras... 3 Capítulo VI. Referencias Bibliográficas... 1 Apéndices... 1 Apéndice 1. Datos Utilizados... 2 Apéndice 2. Tablas del Estimador de Kaplan-Meier (KM) Fiabilidad - Tiempo hasta el Fallo Mantenimiento - Tiempo de no Reparabilidad... 6 Apéndice 3. Simulación de Variables Aleatorias Valores Numéricos para la Distribución Weibull Valores Numéricos para la Distribución Log-Normal Apéndice 4. Software de Estadística Aplicada Desarrollado en R Distribuciones Estadísticas Fiabilidad Mantenimiento Simulación Generación de Variables Aleatorias de una Distribución Weibull C.7

16 Tabla de Contenido Generación de Variables Aleatorias de una Distribución Log-Normal C.8

17 Listado de Figuras Listado de Figuras Figura 1. Relaciones de la Confiabilidad... 4 Figura 2. Relación entre Coste y Fiabilidad... 5 Figura 3. Relación Típica entre Confiabilidad y Coste del Ciclo de Vida para la Fase de Operación y Mantenimiento... 6 Figura 4. Representación de los Estados TBF y TTR Figura 5. Curva de Davies o Bañera de la Función de Riesgo Combinado Figura 6. Diferentes Curvas de Fallos en el Tiempo en el Sector Aeronáutico Figura 7. Funciones que Forman la Curva de Davies Figura 8. Soluciones posibles según tipo de Fallos Figura 9. Función de Densidad de una Normal Figura 10. Función de Distribución de una Normal Figura 11. Funciones de Fiabilidad de una Normal Figura 12. Función de Riesgo o Tasa de Fallo de una Normal Figura 13. Función de Riesgo Acumulado de una Normal Figura 14. Función de Densidad de una Log-Normal Figura 15. Función de Distribución de una Log-Normal Figura 16. Funciones de Fiabilidad de una Log-Normal Figura 17. Función de Riesgo o Tasa de Fallo de una Log-Normal Figura 18. Función de Riesgo Acumulado de una Log-Normal Figura 19. Función de Densidad de una Exponencial Figura 20. Función de Distribución de una Exponencial Figura 21. Funciones de Fiabilidad de una Exponencial Figura 22. Función de Riesgo o Tasa de Fallo de una Exponencial Figura 23. Función de Riesgo Acumulado de una Exponencial Figura 24. Función de Densidad de una Weibull Figura 25. Función de Distribución de una Weibull Figura 26. Funciones de Fiabilidad de una Weibull Figura 27. Función de Riesgo o Tasa de Fallo de una Weibull Figura 28. Función de Riesgo Acumulado de una Weibull Figura 29. Función de Densidad de una Gamma Figura 30. Función de Distribución de una Gamma Figura 31. Funciones de Fiabilidad de una Gamma Figura 32. Función de Riesgo o Tasa de Fallo de una Gamma Figura 33. Función de Riesgo Acumulado de una Gamma Figura 34. Función de Densidad de una Erlang Figura 35. Función de Distribución de una Erlang Figura 36. Funciones de Fiabilidad de una Erlang Figura 37. Función de Riesgo o Tasa de Fallo de una Erlang Figura 38. Función de Riesgo Acumulado de una Erlang Figura 39. Medidas de Mantenibilidad Figura 40. Censura de Tipo I Generalizada Figura 41. Censura de Tipo I Generalizada para 4 unidades Re-escaladas al Tiempo Cero Figura 42. Diagrama de Lexis para la Censura de Tipo I Generalizada Figura 43. Plantilla para Gráfico de Probabilidad Weibull Figura 44. Comparación Gráfica entre Distribuciones F.1

18 Listado de Figuras Figura 45. Frecuencias Esperadas y Observadas de una Muestra con la línea de ajuste a una distribución Normal Figura 46. Relación entre x e y valores de R Figura 47. Sistema en Serie Formado por Tres Componentes Figura 48. Sistema en Paralelo con Tres Componentes Figura 49. Sistema 2 Componentes en Serie entre 3 en Paralelo Figura 50: Procedimiento Metodológico en Fiabilidad y Mantenimiento Figura 51: Histograma de Tiempo Operativo de los Dispositivos Figura 52. Diagrama de Cajas de Tiempo Operativo de los Dispositivos Figura 53. Función de Supervivencia Estimada con Intervalo de Confianza Figura 54. Comparativa de Métodos de Estimación de la Función de Supervivencia... 9 Figura 55. Función de Distribución... 9 Figura 56. Funciones de Riesgo Acumulado Figura 57. Comparativa de Métodos de Estimación de la Función de Riesgo Acumulado Figura 58. Función de Supervivencia con Modelos Paramétricos Figura 59. Función de Riesgo con Modelos Paramétricos Figura 60. Función de Riesgo Acumulado con Modelos Paramétricos Figura 61. Función de Supervivencia o Fiabilidad Weibull Figura 62. Función de Riesgo Weibull.. 13 Figura 63. Función de Riesgo Acumulado Weibull Figura 64. Modelación de las Observaciones con varias Distribuciones Teóricas Figura 65. Gráfico de Probabilidad de Weibull Figura 66. Gráfico de Probabilidad para obtención de parámetros de la distribución de Weibull Figura 67. Gráfico de ajuste a una distribución de Weibull Figura 68. Gráfico de evaluación de residuos Figura 69. Intervalos de Confianza y Predicción al 95% Figura 70. Función de Densidad Figura 71. Función de Distribución Figura 72. Funciones de Fiabilidad o Supervivencia Figura 73. Función de Riesgo o Tasa de Fallo Figura 74. Función de Riesgo Acumulado Figura 75. Función de Distribución F(t) Paramétrica (izq.) y Función no Paramétrica (der.) Figura 76. Función de Fiabilidad R(t) o Supervivencia S(t) Paramétrica (izq.) y Función no Paramétrica (der.) Figura 77. Función de Riesgo o Tasa de Fallo h(t) Paramétrica (izq.) y Función no Paramétrica (der.) 36 Figura 78. Función de Riesgo Acumulado H(t) Paramétrica (izq.) y Función no Paramétrica (der.) Figura 79: Histograma de Tiempo de reparación de los Dispositivos Figura 80. Diagrama de Cajas de Tiempo de Reparación de los Dispositivos Figura 81. Modelación de las Observaciones con varias Distribuciones Teóricas Figura 82. Gráfico de Linealización de la Función de no Reparabilidad Figura 83. Gráfico de ajuste a una distribución Lognormal Figura 84. Intervalos de Confianza y Predicción al 95% Figura 85. Función de Densidad de Probabilidad de Reparación Figura 86. Función de Mantenibilidad Figura 87. Funciones de no Reparabilidad Figura 88. Función de Tasa de reparación Figura 89. Función de Riesgo Acumulado Figura 90. Función de no Reparabilidad - Estimada con Intervalo de Confianza Figura 91. Comparativa de Métodos de Estimación de la Función de no reparabilidad F.2

19 Listado de Figuras Figura 92. Función de Mantenibilidad Figura 93. Funciones de Tasa de Reparación Acumulada Figura 94. Comparativa de Métodos de Estimación de la Función de tasa de reparación acumulada 61 Figura 95. Función de no Reparabilidad con Modelos Paramétricos Figura 96. Función de Tasa de Reparación con Modelos Paramétricos Figura 97. Función de Tasa de Reparación Acumulada con Modelos Paramétricos Figura 98. Función de no Reparabilidad Figura 99. Función de Tasa de Reparación Figura 100. Función de Tasa de Reparación Acumulada Figura 101. Función de Mantenibilidad M(t) Paramétrica (izq.) y Función no Paramétrica (der.) Figura 102. Función de no Reparabilidad Rr(t) Paramétrica (izq.) y Función no Paramétrica (der.) Figura 103. Función de Tasa de Reparación h(t) Paramétrica (izq.) y Función no Paramétrica (der.). 67 Figura 104. Función de Tasa de Reparación Acumulada H(t) Paramétrica (izq.) y Función no Paramétrica (der.) Figura 105. Gráficos Q-Q para una muestra de 10 Variables Aleatorias de una Distribución de Weibull Figura 106. Gráficos Q-Q para una muestra de 20 Variables Aleatorias de una Distribución de Weibull Figura 107. Gráficos Q-Q para una muestra de 40 Variables Aleatorias de una Distribución de Weibull Figura 108. Gráficos Q-Q para una muestra de 10 Variables Aleatorias de una Distribución Log- Normal Figura 109. Gráficos Q-Q para una muestra de 20 Variables Aleatorias de una Distribución Log- Normal Figura 110. Gráficos Q-Q para una muestra de 40 Variables Aleatorias de una Distribución Log- Normal F.3

20 Listado de Figuras F.4

21 Listado de Tablas Listado de Tablas Tabla 1. Estadísticos Descriptivos para el Tiempo Operativo TTF... 3 Tabla 2. Estimador de Kaplan-Meier para el Tiempo Operativo TTF... 7 Tabla 3. Información del Estimador de Kaplan-Meier... 7 Tabla 4.Parámetros de Distribución Weibull Tabla 5. Ajuste Analítico ordenado por Ks stat Tabla 6. Ajuste Analítico ordenado por Log_Likelihood Tabla 7.Resultados del Estudio Comparativo de Parámetros Tabla 8.Resultados Ordenados del Estudio Comparativo de Parámetros Tabla 9.Resultados de Análisis en Programas Comerciales Tabla 10. Resultados de la Regresión Lineal Tabla 11. Análisis de la Varianza de la Regresión Lineal Tabla 12. Test de independencia y correlación lineal Tabla 13. Estadísticos de ajuste y test chi-cuadrado Tabla 14. Test de Ajuste de Kolmogorov-Smirnov Tabla 15. Estadísticos Descriptivos para el Tiempo De reparación TTR Tabla 16. Ajuste Analítico ordenado por Ks stat Tabla 17. Ajuste Analítico ordenado por Log_Likelihood Tabla 18.Resultados del Estudio Comparativo de Parámetros Tabla 19.Resultados Ordenados del Estudio Comparativo de Parámetros Tabla 20. Resultados de la Regresión Lineal Tabla 21. Análisis de la Varianza de la Regresión Lineal Tabla 22. Test de independencia y correlación lineal Tabla 23. Estadísticos de ajuste y test chi-cuadrado Tabla 24. Test de Ajuste de Kolmogorov-Smirnov Tabla 25. Estimador de Kaplan-Meier para el Tiempo de no Reparación Tabla 26. Información del Estimador de Kaplan-Meier Tabla 27.Resumen de las Pruebas de Bondad de Ajuste de Tiempos hasta el Fallo Tabla 28.Resumen de las Pruebas de Bondad de Ajuste de los Tiempos de Reparación T.1

22 Listado de Tablas T.2

23 Capítulo I. Introducción

24

25 Capítulo I. Introducción 1.1 Antecedentes La gran mayoría de los dispositivos físicos o tangibles sufren un proceso de degradación causado por el paso del tiempo y/o por su utilización. Ello significa que, a menos que se tomen medidas de mantenimiento eficaces, cualquier dispositivo (componente o sistema) acabará fallando, i.e.: eventualmente, el dispositivo dejará de ser operativo (dejará de realizar correctamente la función que le había sido asignada). Por tanto, se exige que los productos sean fiables. Deben desempeñar sus funciones de forma segura sin excesivo impacto en el medioambiente y ser fáciles de mantener durante su vida útil y así lograr la satisfacción del cliente. La confiabilidad de un producto es un término colectivo que se usa para describir la disponibilidad de un producto y sus factores de influencia, esto es, fiabilidad, mantenibilidad y logística de mantenimiento. Uno de los factores de mayor incidencia es la fiabilidad de un dispositivo (componente o sistema), definiéndose como la probabilidad de que éste funcione correctamente ( sobreviva sin fallo) durante un determinado período de tiempo, sometido a unas condiciones de trabajo concretas. Así pues, la fiabilidad constituye un aspecto fundamental de la calidad de todo dispositivo. Por tal motivo, resulta especialmente interesante la cuantificación de dicha fiabilidad, de forma que sea posible hacer estimaciones sobre la vida útil del producto. Así, por ejemplo, en el caso de una avioneta monomotor, será de gran conveniencia conocer la probabilidad de que esta falle en diferentes etapas de su vida (tras 500 horas de funcionamiento, 800 horas de funcionamiento, etc.). El obtener una buena estimación de la fiabilidad del motor, posibilitará la toma de decisiones racionales acerca de cuándo conviene revisarlo o cambiarlo por otro nuevo. Ciertas técnicas en especial las no paramétricas, fueron inicialmente desarrolladas para su uso en estudios médicos y biológicos (es decir, considerando entidades orgánicas en lugar de dispositivos) bajo el nombre genérico de análisis de supervivencia (comparación de diferentes tratamientos médicos, determinación de los factores que intervienen en la supervivencia de los peces de un río, etc.). En la actualidad, sin embargo, la aplicación de dichas técnicas, en especial las paramétricas, se ha extendido a otras áreas como la económica o la industrial bajo el nombre de análisis de tiempos de fallo (establecimiento de períodos de garantía de un producto, diseño de planes de mantenimiento preventivo, etc.). I.2

26 Capítulo I. Introducción 1.2 Objetivos de la Investigación Los objetivos a realizar por este TFM serán los siguientes: Obtener un conocimiento de los fundamentos de confiabilidad y en especial sobre fiabilidad de los procesos de estimación de distribuciones, ajuste de parámetros, elección y estimación del modelo probabilístico, su simulación y diagnóstico. Aplicar los conceptos anteriormente expuestos a casos prácticos, estableciendo una metodología estadística de análisis, que permita estudiar, evaluar, adaptar y aplicar algunos modelos estadísticos, que serán utilizados en la predicción de las averías de los equipos y en la cuantificación de su tiempo de reparación. Los modelos considerados aquí para la descripción del estado de los equipos y por tanto su deterioro, servirían como el principal instrumento para la planificación de su mantenimiento. Se desarrollaran las diferentes necesidades graficas o de cálculo mediante funciones o uso de librerías actualmente realizadas en el software libre R. Siendo éste un lenguaje y entorno de programación orientado a objetos para análisis estadístico y gráfico Igualmente se pretende obtener una recomendación de las posibles líneas de investigación que se podrían seguir en el futuro. I.3

27 Capítulo I. Introducción 1.3 Estructura del TFM Este TFM se organizará básicamente 6 capítulos y 4 apéndices claramente diferenciados: En el Capítulo I, se exponen los objetivos y la estructura del TFM. En el Capítulo II, se realizará una amplia revisión sobre los fundamentos de la confiabilidad. Esto proporcionará un conocimiento inicial sobre esta ciencia y los diferentes aspectos fundamentales que han de ser considerados cuando nos enfrentamos a ella. Se explican los conceptos fundamentales de la Fiabilidad y sus expresiones matemáticas básicas, de igual forma con la Mantenibilidad, definiéndose los conceptos básicos estadísticos como la función de distribución y densidad y se introducen los conceptos de función de fiabilidad y riesgo. Asimismo, se caracterizan modelos de distribuciones utilizados en el estudio de tiempos de vida útil, como la distribución Normal, Log- Normal, Exponencial, Weibull, Gamma y Erlang y las relaciones existentes entre algunas de estas. Además, se introducen conceptos de censura y truncamiento, que aparece frecuentemente en los estudios de fiabilidad. Se describen extensamente los métodos estadísticos de estimación no Paramétrica y Paramétrica con estimaciones de los parámetros de modo gráfico, puntual y por intervalos mediante mínimos cuadrados, máxima verosimilitud y momentos. Se realiza una explicación de las técnicas de inferencia a utilizar con los datos. Finaliza el capítulo con una revisión en Fiabilidad de Sistemas. En el Capítulo III, se presenta la metodología que se usará para llevar a cabo el estudio de investigación. En el Capítulo IV, se realizará el estudio práctico mediante análisis descriptivo, no paramétrico y paramétrico con un estudio comparativo de métodos sobre la obtención de los parámetros y su bondad de ajuste tanto para Fiabilidad como para Mantenibilidad. Finalizando el capítulo con la simulación mediante la generación y ajuste de variables aleatorias de la distribución seleccionada en cada caso, Se realizara en todas las etapas un análisis o discusión acerca de los resultados. En el Capítulo V, se extraerán las conclusiones de las aportaciones principales de esta investigación. También se indican una serie de recomendaciones para líneas futuras de investigación. En el Capítulo VI, se presentan diversas referencias bibliográficas, ya que principalmente para el desarrollo de la aplicación en R, el acceso a internet ha sido frecuentemente utilizado. Se han incluido cuatro Apéndices: el primero de ellos recoge información sobre las observaciones de tiempos hasta el fallo TTF y de los tiempos de reparación TTR; el segundo presenta los resultados de análisis no paramétrico mediante el estimador de Kaplan-Meier para ambos datos; el tercero indica los resultados de los números generados en la simulación y el cuarto presenta el programa desarrollado en R usado en este TFM I.4

28 Capítulo I. Introducción I.5

29 Capítulo II. Fundamentos Teóricos

30

31 Capítulo II. Fundamentos Teóricos 2.1 Introducción En la actualidad, la fiabilidad, la mantenibilidad y la disponibilidad son características esenciales de funcionamiento de los sistemas. Estas características, junto con el funcionamiento del soporte de mantenimiento se conocen colectivamente como confiabilidad. Pero en sus inicios, el enfoque inicial fue realizado sobre la fiabilidad, atribuyendo su origen de estudio a la evaluación de la mortalidad derivada de las epidemias y a los métodos actuariales desarrollados por las compañías de seguros, para determinar el riesgo de sus pólizas. La herramienta utilizada para el cálculo de esta fiabilidad eran las tablas de vida. A principios de 1900 se utilizaban los métodos actuariales para estudiar la supervivencia de pacientes con determinados tratamientos y para estudiar la fiabilidad de los ferrocarriles. La teoría matemática de la fiabilidad se desarrolla por las demandas de la tecnología. El área de mantenimiento de máquinas es donde la fiabilidad se aplica con sofisticadas técnicas matemáticas. En 1939 Walodie Weibull, propuso una distribución para describir la duración de los materiales, que más tarde se denominaría distribución de Weibull. Esta distribución es utilizada en infinidad de aplicaciones debido a su gran versatilidad. En 1953 Epstein y Sobel comenzaron a trabajar con la distribución Exponencial como modelo para estudiar la vida útil de un dispositivo en función del tiempo. La distribución exponencial no tiene memoria, es decir, el tiempo de vida útil de un determinado dispositivo no influye en la probabilidad de que este falle. La popularidad de esta distribución es el gran uso que se ha hecho de ella en trabajos de fiabilidad debido a su simplicidad en los cálculos. En los años noventa, la investigación de la fiabilidad toma nuevas direcciones gracias a M. B. Mendel. Sus métodos se pueden encontrar en publicaciones sobre problemas de fiabilidad en la ingeniería, entre los que destacan los de Shortle y Mendel (1996). Una definición probabilística de la fiabilidad la presenta Meeker y Escobar (1998), que la define como la probabilidad de que una unidad realice su función hasta un tiempo especificado bajo las condiciones de uso encontradas. Otra perspectiva, orientada hacia el cliente o usuario del producto final, es la proporcionada por Condra (2001), que afirma que un producto fiable es aquel que hace lo que el usuario quiere que haga cuando el usuario quiere que lo haga. De acuerdo con esta definición, la fiabilidad sería calidad a través del tiempo. Dependiendo del enfoque dado a la fiabilidad, puede también encontrarse su vinculación con el concepto de misión, esta idea aparece vinculada a los inicios de estos estudios, en el contexto de equipos diseñados para su uso militar, aunque hoy en día sigue siendo utilizada también en diferentes campos. En este caso, se transforma el concepto de fiabilidad a confiabilidad, a que el equipo funcione correctamente durante el tiempo de misión. II.2

32 Capítulo II. Fundamentos Teóricos Históricamente, parte de la metodología sobre estimación de la vida útil de los productos fue inicialmente desarrollada para materiales militares. Uno de los primeros ejemplos constatados de análisis de tiempos de vida fue el empleado para estimar el número de repuestos necesarios para mantener equipos electrónicos y mecánicos funcionando en forma intensiva por períodos largos de tiempo durante la guerra de Corea. Los responsables de armamento verificaron que uno de los problemas de fallos estaba relacionado con las condiciones ambientales extremas. En algunos sectores de la industria, como en ingeniería la fiabilidad está orientada al estudio de los tiempos de fallo. El problema reside en predecir si se puede producir un fallo y cuándo ocurrirá. Esta información es muy útil para las políticas de mantenimiento e inspección de una empresa así como los plazos de garantía de los productos. También es muy útil para predecir costes debidos al mantenimiento y a los fallos ocasionales que pueden ocurrir durante el tiempo de vida del dispositivo. Mientras que en el sector farmacéutico o el alimentario, se usa un término más específico, estabilidad, para referirse a los casos en que la fiabilidad depende de la conservación de una determinada composición química. En las ciencias de la salud, en las que se tratan cuestiones bastante parecidas a las de la fiabilidad, se usa la expresión análisis de la supervivencia, siendo en este campo en el que se ha investigado con más ahínco en la implementación de nuevos métodos estadísticos. Estos estudios de Supervivencia, centrados en estimar la vida de los enfermos, se pueden y deben aprovechar para la estimación de tiempos de vida de productos industriales. Aunque los estudios de fiabilidad son de gran utilidad en todas las ramas de la industria por su amplia aplicación, han surgido técnicas y normativas específicas para el estudio de la fiabilidad de componentes electrónicas y para la fiabilidad de los programas informáticos, rama esta última que se engloba en la denominada fiabilidad del software. Así, Lawless (2000) dice la fiabilidad se refiere al funcionamiento adecuado de equipos y sistemas, lo cual incluye factores como software, hardware, humanos y ambientales. Al igual que ocurre en el caso de la calidad, también existen normativas específicas que regulan la fiabilidad, la mantenibilidad y la disponibilidad, entre ellas cabe destacar la norma UNE-EN de Gestión de la confiabilidad. II.3

33 Capítulo II. Fundamentos Teóricos 2.2. Conceptos Fundamentales Confiabilidad La confiabilidad ha sido especificada mediante las características intrínsecas del sistema de disponibilidad, fiabilidad, mantenibilidad y soporte de mantenimiento (fig. 1). Sin embargo, otros factores pueden reducir significativamente los niveles logrados para estas medidas, por debajo de los niveles intrínsecos. Potencialmente, los más importantes son la calidad de la fabricación y el mantenimiento del sistema, que pueden introducir nuevas averías en el mismo. Los niveles de fiabilidad, mantenibilidad, disponibilidad y soporte de mantenimiento conseguidos por un sistema dependen de las condiciones en las que se utiliza y también del perfil de su misión. Puede ser importante tener en cuenta no sólo las condiciones en las que operará el sistema sino también la política de mantenimiento y la organización para el soporte de mantenimiento del mismo. Figura 1. Relaciones de la Confiabilidad Por tanto, es esencial que se gestione activamente la confiabilidad a lo largo del ciclo de vida del sistema. Esto abarca tanto el proceso de adquisición como el de utilización, y las actividades de gestión requeridas serán distintas en uno y otro caso. Si la confiabilidad no se gestiona adecuadamente ya sea en el proceso de adquisición o durante la utilización, existe una mayor probabilidad de que no se alcancen los requisitos de fiabilidad o de disponibilidad. El ciclo de vida del sistema puede tener un efecto significativo en la confiabilidad conseguida del sistema. Además, la fiabilidad puede variar a lo largo de la vida, ya que muchos sistemas pueden presentar tasas de fallo variables con el uso, debido a desgaste de componentes o subsistemas. Esta variación de las características de fiabilidad con el uso significa que, para muchos sistemas, no es válida la hipótesis de tasa de fallo constante y que tienen que emplearse distintas distribuciones de probabilidad, que requieren expresiones matemáticas más complejas, para estimar las características de fiabilidad (IEC 61649, IEC e IEC 61710). II.4

34 Capítulo II. Fundamentos Teóricos Los cambios en el uso del sistema son un factor adicional que afecta a las características de fiabilidad. Así, la misión o el uso del sistema son una parte esencial de la especificación de confiabilidad y tienen que observarse y gestionarse los cambios como parte del ciclo de vida de confiabilidad Coste del Ciclo de Vida Actualmente se exige que los productos sean fiables. Deben desempeñar sus funciones de forma segura sin excesivo impacto en el medioambiente y ser fáciles de mantener durante su vida útil. La decisión de compra no solo está condicionada por el coste inicial del producto (coste de adquisición) sino también por la previsión de coste de operación y mantenimiento del producto durante su vida útil (coste de propiedad) y por el coste de eliminación. Para lograr la satisfacción del cliente, el reto de los fabricantes es lograr productos que cumplan los requisitos, sean fiables y tengan un coste competitivo mediante la optimización de los costes de adquisición, propiedad y eliminación. Además, los sistemas que fallan repetidamente adquirirán pobre reputación frente al usuario. Por otra parte, diseñar y fabricar sistemas con altos niveles de fiabilidad puede ser caro y posiblemente no se puedan producir a un precio competitivo. Por tanto, hay que encontrar un equilibrio entre sistemas de baja fiabilidad que son muy costosos de mantener y sistemas de alta fiabilidad que pueden ser caros de diseñar y construir. Esto se ilustra en la figura 2, en la que se muestran los costes de diseño y operación de sistemas de distinta fiabilidad. Figura 2. Relación entre Coste y Fiabilidad La figura 2 muestra que hay un nivel de fiabilidad para el que se minimizan los costes totales durante la vida del sistema. Si se trata de un sistema comercial, este nivel mínimo de coste cambiará en la medida en que los costes de diseño y desarrollo puedan repartirse entre muchas unidades. Sin embargo, la fiabilidad óptima de un sistema puede estar afectada por otros aspectos tales como los requisitos de seguridad o la función del sistema y no tiene por qué coincidir, necesariamente, con la fiabilidad correspondiente al mínimo coste del ciclo de vida. II.5

35 Capítulo II. Fundamentos Teóricos Costes Relativos a la Confiabilidad Los costes asociados con los elementos de confiabilidad pueden incluir, cuando se apliquen, lo siguiente: Coste de restablecimiento del sistema incluyendo el coste de mantenimiento correctivo; Coste de mantenimiento preventivo; Costes de las consecuencias. La figura 3 destaca algunos elementos de confiabilidad convertidos en costes de operación y mantenimiento. Figura 3. Relación Típica entre Confiabilidad y Coste del Ciclo de Vida para la Fase de Operación y Mantenimiento La Confiabilidad se ha considerado bajo los siguientes cuatro aspectos: Disponibilidad Fiabilidad (R(t), incluyendo tiempo medio hasta el fallo (MTTF) (Mean Time To Failure), tiempo medio de funcionamiento entre fallos (MTBF) (Mean Time Between Failures). Mantenibilidad, incluyendo tiempo medio de indisponibilidad (MDT) (Mean Down Time) y tiempo medio hasta la restauración (MTTR) (Mean Time To Restoration). II.6

36 Capítulo II. Fundamentos Teóricos Soporte de mantenimiento Disponibilidad Para algunos sistemas, especialmente para sistemas complejos, es necesario considerar conjuntamente la fiabilidad y el mantenimiento. En tales sistemas puede ser conveniente especificar requisitos de disponibilidad a nivel de sistema en vez de especificar por separado requisitos de fiabilidad y de mantenibilidad. Los requisitos de disponibilidad en régimen permanente son los más comúnmente utilizados aunque también puede ser adecuada la disponibilidad media. Industrias en las que la disponibilidad puede ser la principal característica de confiabilidad, son, por ejemplo, el sector ferroviario, en el que los operadores ferroviarios exigen un porcentaje de trenes disponibles para su utilización durante periodos de punta o un retraso máximo, y el sector de las telecomunicaciones, donde el operador requiere un cierto número de canales de comunicación disponibles, de forma que el sistema mantenga una disponibilidad general, aunque ciertas rutas puedan estar no disponibles debido a los distintos enrutamientos existentes. Se define la disponibilidad D(t) como la probabilidad en el tiempo de asegurar un servicio requerido. Otra definición común en para la disponibilidad es: el porcentaje de equipos o sistemas útiles en un determinado momento, frente a la totalidad de equipos o sistemas. La ecuación de la disponibilidad está en función de la fiabilidad y de la mantenibilidad, siendo: D t Rt MTBF R t M t MTBF MTTR En la Figura 4 se aprecia cómo se conforman el MTBF (Mean Time Between Failures).por los distintos TBF que hacen referencia al tiempo de funcionamiento de un activo y el MTTR (Mean Time To Restoration) por los TTR que se refieren a los tiempos de paradas por reparación. Figura 4. Representación de los Estados TBF y TTR. II.7

37 Capítulo II. Fundamentos Teóricos Fiabilidad Fiabilidad en Función del Tiempo En algunos sistemas, es necesario considerar directamente su fiabilidad. En tales sistemas, puede ser apropiado especificar por separado los requisitos de fiabilidad y de mantenibilidad a nivel del sistema. Por definición, la fiabilidad es la capacidad de un sistema para realizar una función requerida en condiciones determinadas durante un intervalo de tiempo dado, esto es sin fallo. Sin embargo, muchas especificaciones definirán la fiabilidad requerida mediante el empleo de medidas alternativas, tales como el tiempo medio hasta el fallo (MTTF) (Mean Time To Failure) o el tiempo medio de operación entre fallos (MTBF) (Mean Time Between Failures). Una definición correcta de la fiabilidad sería como la probabilidad de que el sistema complete su funcionamiento satisfactorio a lo largo del tiempo. El supuesto subyacente implícito es que en una muestra de dispositivos idénticos, la supervivencia (o duración de vida) se dispersa de una manera que se modela bien con la probabilidad y, por tanto, con una función de distribución. Por tanto, la extensión de las medidas de fiabilidad para incluir el tiempo implica la especificación de las distribuciones de probabilidad, las cuales deben ser modelos razonables de la dispersión de duración de vida. Entre las industrias en las que las características de fiabilidad pueden ser la principal característica de confiabilidad, se pueden citar la industria aeroespacial, donde una vez que un avión ha despegado es esencial que complete el vuelo sin un fallo total y la industria automovilística, donde el conductor necesita llegar a su destino y puede efectuar el mantenimiento del vehículo una vez que se encuentra en su destino. Por tanto, es conveniente distinguir entre productos reparables y no reparables: Productos no reparables: solo un fallo puede ocurrir. Ejemplos: bombillas de luz, transistores, motores a propulsión, microprocesadores, etc. Productos reparables: más de un fallo puede ocurrir. En este caso es importante considerar la disponibilidad del producto reparado (que dependerá de la ocurrencia de fallos y del tiempo de mantenimiento. Ejemplos: automóviles, lavadoras, etc Medidas de Fiabilidad La fiabilidad puede ser indicada y cuantificada mediante diversas funciones que son indicados a continuación: La medida inicial de la fiabilidad sería el MTBF (Mean Time Between Failures) o tiempo medio entre fallos. II.8

38 Capítulo II. Fundamentos Teóricos MTBF Rtdt 0 En la práctica, la fiabilidad se mide como el tiempo medio entre dos fallos consecutivos MTBF. Se puede medir en general por horas, kilómetros, horas de vuelo, piezas producidas,... etc. R(t) es la Función de Fiabilidad (Reliability Function) o función de supervivencia en el tiempo t, o dicho de otro modo, la probabilidad de que un componente nuevo sobreviva más del tiempo t, donde T se define de forma genérica como el tiempo de vida del componente, siendo una variable continua y que toma valores en el intervalo [0, ). 1 R t P t f t dt F t Esta función es continua, monótona decreciente y además verifica que: R(0) = 1 y t R lim 1 F t 0 t F(t) es la Función de Distribución de la variable aleatoria continua T, representa la probabilidad acumulada de fallo hasta el tiempo t, es decir: F(t) = P(T t) Esta función es continua, monótona no decreciente y además verifica que: y lim F t t 0 lim F t t 1 El p-cuantil de la distribución de T es el valor t p que verifica: F(t p) = P(T t p) = p lo que equivale a la expresión: t p = F -1 (p) donde F -1 es la función inversa de F. Derivando la función de distribución obtenemos la Función de Densidad f(t). Ésta nos da una idea de la dispersión de la vida del componente: f t df t dr t dt dt La vida esperada o tiempo medio entre fallos MTBF está relacionada con la función de densidad a través de la esperanza matemática del tiempo de vida T mediante la expresión: 0 E tf t dt MTBF II.9

39 Capítulo II. Fundamentos Teóricos La vida esperada o MTBF para sistemas no reparables, se convierte en tiempo medio hasta el fallo (MTTF) (Mean Time To Failure). Un concepto importante a considerar cuando se trabaja con distribuciones asociadas a tiempos de vida es la Función de Riesgo (hazard function) o Tasa de Fallo (failure rate) h(t), que se define como la probabilidad instantánea de que una componente falle en el instante t. En términos de probabilidad se interpreta como el límite de la probabilidad condicionada de que T falle antes del tiempo t + t conociendo que no había fallado en el instante t. Esto no es más que el cociente entre la función de densidad f(t) y la función de fiabilidad R(t). Entonces, la función de riesgo h(t) seria: h t f t R t La función de riesgo h(t) es una característica de fiabilidad del componente. No tiene interpretación física directa. Es bastante común que el comportamiento de fallos de un componente sea descrito en términos de su tasa de fallos. H(t) es la Función de Riesgo Acumulada (cumulative hazard rate) o tasa de fallos acumulada y se define como: H t t 0 h t dt La función de riesgo acumulada H(t) y la función de distribución F(t) verifican la siguiente relación: H(t) = - log(1 - F(t)). La función de riesgo h(t) es una característica importante de las distribuciones asociadas a variables correspondientes a tiempos de vida: Funciones de riesgo decrecientes. Se observa en productos cuya probabilidad de fallo es menor cuando aumenta el tiempo de supervivencia. Esto aparece a menudo en cualquier tipo de materiales: al principio de su funcionamiento la probabilidad de fallo es alta debido a la existencia de posibles defectos ocultos. A medida que transcurre el tiempo está probabilidad se estabiliza a un nivel más bajo, pues si el elemento ha sobrevivido será porque no tenía ese defecto oculto. Funciones de riesgo constantes. Indica que la probabilidad de fallo instantáneo es la misma en cualquier momento y consecuentemente el proceso no tiene memoria, ya que la posibilidad de fallo estando funcionando, es idéntica en cualquier momento de la vida del componente. A pesar de que esto pueda parecer irreal, este tipo de modelo es muy utilizado en la práctica, tanto por su II.10

40 Capítulo II. Fundamentos Teóricos sencillez como por el hecho de que representa bien los periodos intermedios de vida de muchos productos. Por ejemplo si se tienen componentes electrónicos cuya es vida es muy larga instalados en sistemas que cuentan con elementos mecánicos de vida útil muy inferior, el modelo de tasa de fallos constante es perfectamente adecuado. Cabe esperar tasas de fallo constantes cuando el fallo se produce por cargas excesivas que se producen aleatoriamente en el tiempo. Tienden a aparecer en conjuntos donde los fallos son debidos a un fenómeno aleatorio como accidentes o shocks. Funciones de riesgo crecientes. Surgen, en la mayoría de los casos por desgastes y fatigas, es decir por un proceso de envejecimiento. La tasa de fallos creciente indica que la probabilidad de fallo inmediato, teniendo en cuenta que el componente está funcionando, se incrementa a medida que pasa el tiempo. Evidentemente a medida que un componente se hace más viejo, su tasa de fallos tenderá a crecer. La generalización del proceso anterior conduce a la curva de Davies o bañera (Bathtub Curve), que se corresponde con la figura 5 y representa la probabilidad de fallo instantáneo de un elemento que se comporta inicialmente de forma decreciente (a esta zona se le denomina de mortalidad infantil), en su vida media con una probabilidad de fallo casi constante (zona de vida útil), y finalmente con probabilidad de fallo que aumenta con la edad (zona de deshecho, wearout). Esta curva es muy habitual en elementos reales, aunque en la práctica muchas veces se simplifique estudiando únicamente su zona central, que tiene tasa de fallo constante. Figura 5. Curva de Davies o Bañera de la Función de Riesgo Combinado. II.11

41 Capítulo II. Fundamentos Teóricos Estudios actualizados en el sector aeronáutico y militar principalmente, han demostrado que los mecanismos de formación de fallos no tienen por qué seguir las pautas de la combinación de las tres formas de riesgo o fallo indicadas anteriormente (curva de Davies o bañera). En la Figura 6 se presentan las distintas curvas de fallos a lo largo del tiempo y el porcentaje de cada uno ellos según un estudio de la FAA (Federal Aviation Agency) Americana. Figura 6. Diferentes Curvas de Fallos en el Tiempo en el Sector Aeronáutico Curva A. La curva de Davies: Alta mortalidad infantil, seguida de un bajo nivel de fallos aleatorios, terminado en una zona de desgaste. Sólo un 4% de los fallos siguen esta curva. Coincide con equipos mecánicos históricos. Curva B. El tradicional punto de vista: Pocos fallos aleatorios, terminando en una zona de desgaste. Sólo un 2% de los fallos siguen esta curva. Coincide con Equipos o Sistemas sometidos a fatiga y no diseñados para vida infinita como por ejemplo sistemas electrónicos discretos. Curva C. Un constante incremento en la probabilidad de fallo. Sólo un 5% de los fallos siguen esta curva. Coincide con equipos o sistemas sometidos a corrosión. II.12

42 Capítulo II. Fundamentos Teóricos Curva D. Un rápido incremento en la probabilidad de fallo, seguido de un comportamiento aleatorio. Sólo un 7% de los fallos siguen esta curva. Coincide con equipos electrónicos digitales. Curva E. Fallos aleatorios: No hay relación entre la edad funcional de los equipos y la probabilidad de que fallen. Sólo un 14% de los fallos siguen esta curva. Coincide con fallos en rodamientos bien diseñados. Curva F. Alta mortalidad infantil, seguida de un comportamiento aleatorio de la probabilidad de fallos. El 68% de los fallos siguen esta curva. Coincide con fallos en equipos o sistemas hidráulicos y neumáticos de diseño actual. La conclusión obtenida del estudio de la aviación fue que sólo un 6% siguen el desarrollo de fallos según las funciones A+B, y sólo en éstas, será efectivo la aplicación de los mantenimientos preventivos. Por lo tanto, existe otro 94 % de fallos que debido a su alta componente aleatoria de aparición de los fallos no se consideraba inicialmente realizar un mantenimiento preventivo. Éste sólo inducirá en la aparición de nuevos fallos por la manipulación innecesaria de los equipos y producirá un aumento en los costes por mantenimiento. En la Figura 7 se muestra las tres funciones que forman la curva de Davies Figura 7. Funciones que Forman la Curva de Davies. En la Figura 8 se presenta una matriz con las posibles soluciones en función del tipo de fallo producido. II.13

43 Capítulo II. Fundamentos Teóricos Figura 8. Soluciones posibles según tipo de Fallos Distribuciones Estadísticas El criterio de selección de una distribución probabilidad a utilizar en un análisis de fiabilidad se basa usualmente mediante la función de riesgo, pues de acuerdo a la información que el investigador tenga del fenómeno que causa el fallo, puede determinar las características que el modelo debe seguir en la forma de la tasa de fallo conforme avanza el tiempo (creciente, decreciente o en forma de bañera). En principio, se puede utilizar cualquier función de distribución para crear un modelo de duración de vida de los equipos. En la práctica, las funciones de distribución que tienen funciones de riesgo monotónicas parecen más realistas y, dentro de esta clase, existen unas pocas que son consideradas como aquellas que proporcionan los modelos más razonables de fiabilidad de dispositivos. Se presentan a continuación las distribuciones más comunes en modelos de fiabilidad con sus expresiones matemáticas y representación gráfica realizadas mediante R, (Apéndice 4, apartado 1) Distribución Normal Es la distribución utilizada con más frecuencia en estadística, aunque no ocurre así en estudios de fiabilidad debido a su carácter simétrico, ya que habitualmente los tiempos de vida presentan un comportamiento asimétrico. Una variable aleatoria continua T tiene una distribución Normal, y se indicaría como T ~ N(μ., σ), siendo sus funciones principales las siguientes: La Función de Densidad f(t) con t, siendo μ y σ los parámetros del modelo, que se denominan media y desviación típica, respectivamente. Tiene una forma acampanada y es II.14

44 Capítulo II. Fundamentos Teóricos simétrica respecto a la media. A continuación se indica la expresión analítica y la representación gráfica (figura 9) de diversas funciones de densidad para una media igual en todas ellas (μ = 3) pero con variación en la desviación típica (σ = 0.25, 0.5, 1, 1.5 y 2). f t 1 e t 2 Figura 9. Función de Densidad de una Normal. La Función de Distribución F(t) cambia su forma en el punto del valor de la media, siendo más o menos pronunciada en virtud de su desviación típica. Su expresión se indica a continuación y su representación gráfica se puede observar en la figura t 2 t 1 F t e dx 2 II.15

45 Capítulo II. Fundamentos Teóricos Figura 10. Función de Distribución de una Normal. Cuando μ = 0 y σ = 1, esta distribución se denomina Distribución Normal Estándar, cuya Función de Densidad ϕ(t) seria: t y su Función de Distribución ɸ(t) seria: 1 e 2 2 t 2 t t u du La Función de Fiabilidad decrece a cero con mayor rapidez para valores pequeños de desviación típica., como se aprecia gráficamente en la figura t 1 2 Rt e dx t 2 Figura 11. Funciones de Fiabilidad de una Normal. La Función de Riesgo o Tasa de Fallo h(t) está representada en la figura 12, se observa claramente la influencia de la desviación típica en la tasa de fallo en el tiempo, con una desviación típica menor el riesgo aumenta. h t 2 1 t 2 2 e t Erfc 2 siendo Erfc la función del error complementario, definida como: II.16

46 Capítulo II. Fundamentos Teóricos 2 t 2 Erfc t e dt t Figura 12. Función de Riesgo o Tasa de Fallo de una Normal. La Función de Riesgo Acumulado H(t) sigue un patrón similar al descrito en la función de riesgo, como se observa por comparación entre las figuras 12 y 13. Figura 13. Función de Riesgo Acumulado de una Normal. La Media o Esperanza Matemática θ = E[T] del tiempo de fallo T vendría dada por: E T La Varianza Var[T] seria: Var T 2 II.17

47 Capítulo II. Fundamentos Teóricos El p-cuantil estaría indicado por: t 2 InverseErfc 2p p siendo InverseErfc la función inversa del error complementario Distribución Log-Normal Este modelo de distribución se ha utilizado en multitud de aplicaciones asociadas a ingeniería, medicina. Se dirá que la variable aleatoria T sigue una distribución Log-Normal, y lo denotaremos como LogN(μ, σ), si la variable Y = log T sigue una Distribución Normal con media μ y desviación típica σ. Por lo tanto, sus funciones más significativas serian: La Función de Densidad f(t) de una variable aleatoria Y para una Distribución Normal estaría representa por: f y 1 e y 2 con y, entonces la Función de Densidad f(t) de T = exp(y), para la Distribución Log- Normal sería: 2 1 ln t 2 1 f t e t 0 t 2 En la figura 14 se representa la función de densidad para la distribución Log-Normal para μ = 1 y σ = 0.25, 0.5, 1, 1.5.y 2. Figura 14. Función de Densidad de una Log-Normal. La Función de Distribución F(t) se expresaría mediante: II.18

48 Capítulo II. Fundamentos Teóricos F t lnt donde ɸ es la función de Distribución Normal Estándar indicada en el apartado La función de distribución está representada en la figura 15, teniendo cierta similitud a la función de densidad de la distribución normal. Figura 15. Función de Distribución de una Log-Normal. La Función de Fiabilidad R(t) decrece más suavemente a cero que la función de fiabilidad de la distribución normal, fácilmente apreciable por comparación entre las figuras 11 y 16. R t lnt 1 F t 1 Figura 16. Funciones de Fiabilidad de una Log-Normal. II.19

49 Capítulo II. Fundamentos Teóricos La Función de Riesgo o Tasa de Fallo h(t) que se representa en la figura 17, se caracteriza por valer cero en t = 0, y se puede observar, para el caso σ = 2, que la función crece hasta un máximo y a continuación decrece, acercándose a cero a medida que t tiende a. h t 2 1 lnt 2 2 e lnt t Erfc 2 Figura 17. Función de Riesgo o Tasa de Fallo de una Log-Normal. La Función de Riesgo Acumulado H(t) sigue un patrón similar al descrito en la función de riesgo acumulada de la distribución normal, como se observa por comparación entre las figuras 13 y 18. Figura 18. Función de Riesgo Acumulado de una Log-Normal. II.20

50 Capítulo II. Fundamentos Teóricos La Media o Esperanza Matemática θ = E[T] del tiempo de fallo T vendrá dada por: E T e 2 2 La Varianza Var[T] seria: Var T e e El p-cuantil estaría indicado por: tp e 2 InverseErfc 2p Distribución Exponencial Históricamente, este modelo de distribución fue muy utilizado en el trabajo con tiempos de vida útil, debido a la simplicidad de los métodos estadísticos que proporciona. Sin embargo, la aplicabilidad práctica de la distribución exponencial ha sido muy discutida. Para una distribución de fallo exponencial, un dispositivo ha de ser insensible a la edad y al uso. Cualquier acción que no llegue a producirle un fallo debe dejarle como estaba. Si no ha fallado, debe ser tan bueno como cuando estaba en su inicio de vida. Esta propiedad da lugar a que se denomine como una función sin memoria. Las funciones básicas de esta distribución serían las siguientes: La Función de Densidad f(t) de una variable aleatoria T con distribución exponencial seria: 1 f t e t 0 t Es una función decreciente y tiende a cero cuando t, como se puede observar en la figura 19, siendo η > 0 el parámetro de escala del modelo y cuando η es igual a 1, se le denomina distribución exponencial estándar. Figura 19. Función de Densidad de una Exponencial. II.21

51 Capítulo II. Fundamentos Teóricos La Función de Distribución F(t) quedaría expresada por : t t t t t t 1 Ft f tdt e dt e 1 e t y su representación gráfica se indica en la figura 20. Es una función creciente y tiende a 1 cuando t. 0 Figura 20. Función de Distribución de una Exponencial. La Función de Fiabilidad R(t) es una función decreciente y tiende a 0 cuando t, representándose en la figura 21. t R t 1 F t e t 0 Figura 21. Funciones de Fiabilidad de una Exponencial. II.22

52 Capítulo II. Fundamentos Teóricos La Función de Riesgo o Tasa de Fallo h(t) para un dispositivo sin taras iniciales y no afectado aun por el desgaste, sería correcto suponer en teoría que su tasa de fallo es constante. y su valor sería el inverso del parámetro de escala del modelo, η. Así se puede observar en la figura 22. h t 1 e f t 1 t Rt e t Figura 22. Función de Riesgo o Tasa de Fallo de una Exponencial. La Función de Riesgo Acumulado H(t ) siguen un patrón similar con pendiente diferente y es inversamente proporcional al valor del parámetro de escala η, según se observa la figura 23. Figura 23. Función de Riesgo Acumulado de una Exponencial. II.23

53 Capítulo II. Fundamentos Teóricos La Media o Esperanza Matemática θ = E[T] del tiempo de fallo T de esta distribución vendría indicado por: 1 ET MTBF MTTF tf tdt t e dt 0 0 t donde MTBF: Tiempo medio entre fallos en sistemas reparables. MTTF: Tiempo medio hasta el fallo en sistemas no reparables La Varianza Var[T] se expresaría mediante: El p-cuantil estaría indicado por: t Var T t f t dt t e dt tp log1 p Se suele aplica esta la distribución en las siguientes situaciones: En componentes de vida útil muy larga, que excede la vida de servicio de los sistemas de los que forman parte. Es el caso de componentes electrónicos. En componentes que se sustituyen preventivamente antes de que llegue el desgaste. En sistemas en serie compuestos de bloques exponenciales y, en la práctica, en sistemas reparables muy complejos en los que no haya redundancias dominantes. Es evidente que en los dos primeros casos, no es en rigor la vida media θ, pues sólo se tiene en cuenta la parte central de la curva de la bañera. Por ello, el parámetro θ, tratándose de componentes sujetos a desgaste, aunque empleados sólo durante su vida útil, es una vida media ficticia. En el caso de sistemas que fallan exponencialmente, se reparan y siguen funcionando, θ es el tiempo medio entre fallos (MTBF). Evidentemente, los sistemas reparables tienen una nueva vida después de cada reparación. La distribución de fallos, en general, puede variar a cada fallo, por desgaste de los componentes que no han fallado y siguen en el sistema. En el caso de sistemas de distribución de fallo exponencial y no reparables, θ sería el tiempo medio que transcurre hasta el fallo (MTTF). No obstante, para los sistemas citados en el tercer apartado, las sucesivas distribuciones son rigurosa o aproximadamente iguales, conservando el mismo valor de θ Distribución Weibull La distribución de Weibull ayuda a conocer la causa raíz de un fallo, pronosticar la cantidad de fallos y por tanto la Fiabilidad de un equipo. Es una distribución utilizada con asiduidad como modelo II.24

54 Capítulo II. Fundamentos Teóricos preferido de ajuste de datos a una distribución de frecuencias cuando no hay normalidad. Esta distribución es triparamétrica (β, η, γ), es decir, se define mediante tres parámetros y es quizá el modelo más utilizado para tratar problemas con tiempos de vida en fiabilidad industrial. En la literatura técnica está muy extendida la utilización de la distribución de Weibull biparamétrica (β, η), debido a que, el tercer parámetro es el parámetro de localización y se hace γ = 0, es decir, el parámetro que localiza la abscisa a partir del cual se inicia la distribución. Trabajando de forma biparamétrica se ha de asumir el error de falta de localización. Las funciones principales de esta distribución serian indicadas a continuación: La Función de Densidad f(t) de una variable aleatoria continua T estaría indicada por: 1 t t f t e t 0 siendo γ = parámetro de origen (sólo se considera t γ). β = parámetro de forma. η = 1/λ = parámetro de escala o característica de vida. y su representación gráfica se muestra en la figura 24 para γ = 0, β = 0.5, 1, 1.5, 2.5 y 3.44 y η =1. Figura 24. Función de Densidad de una Weibull. La Función de Distribución F(t) estaría indicada mediante la expresión: t 0 t F t f t dt 1 e t 0 II.25

55 Capítulo II. Fundamentos Teóricos y su representación gráfica se indica en la figura 25. Siendo esta una función creciente y tiende a 1 cuando t. Figura 25. Función de Distribución de una Weibull. La Función de Fiabilidad R(t) es una función decreciente y tiende a 0 cuando t, según se indica en la figura 26. t R t 1 F t e t 0 Figura 26. Funciones de Fiabilidad de una Weibull. La Función de Riesgo o Tasa de Fallo h(t) está muy afectada por la variación de la forma β dando lugar a graficas diferentes como se muestran en la figura 27. II.26

56 Capítulo II. Fundamentos Teóricos h t 1 f t t t 0 R t Figura 27. Función de Riesgo o Tasa de Fallo de una Weibull. Si consideramos que γ= 0 (es decir, hay posibilidad de fallo desde t = 0), y para el valor particular η= 1, presenta tasas de fallos crecientes, decrecientes o constantes: 0 < β < 1. La función de riesgo es decreciente, es decir, la tasa de fallo disminuye al aumentar el tiempo (período infantil). β = 1. La función de riesgo es constante e igual a 1/η, por lo que no depende del tiempo. La distribución, en ausencia de parámetro de origen, es exactamente la exponencial de media η. β > 1. La función de riesgo es creciente, describiendo bien el período de desgaste., o 0 < β 4. Período de desgaste tempranos, 1 < β < 2. La función de riesgo crece rápidamente en el origen y muy poco a medida que t crece. Fallos en piezas mecánicas (rodamientos). β = 2 el riesgo crece linealmente con el tiempo. La distribución Weibull se aproxima a distribución de Rayleigh. 2 < β < 4. Crece poco con t próximo a cero y después rápidamente. Fatiga de piezas de baja frecuencia (β = 2.5 a 4). Fallos en correas (β = 2.5).Fallos por corrosión y erosión (β = 3 a 4). Para β = 3.44, la distribución Weibull se aproxima a distribución Normal. II.27

57 Capítulo II. Fundamentos Teóricos o β > 4. Envejecimiento operacional. Corrosión por esfuerzos. Pérdida de propiedades de los materiales. Algunos tipos de erosión. La Función de Riesgo Acumulado H(t) sigue un patrón único con relación directa del valor de β, según se aprecia en la figura 28. t t 0 H t Figura 28. Función de Riesgo Acumulado de una Weibull. La Media o Esperanza Matemática θ = E[T] del tiempo de fallo T de esta distribución vendrá dada por: 1 ET 1 1 Donde 1 La Varianza Var[T] seria: es la función Gamma x Var T El p-cuantil de esta distribución seria:, para 1 x p 1 1 t log p II.28

58 Capítulo II. Fundamentos Teóricos El Parámetro de escala o característica de vida η = 1/λ es aproximadamente el percentil 63.2 % y se interpreta como el valor de la variable del tiempo de vida en el que han fallado el 63.2 % de las unidades. Este 63,2% seria: t 1 1 F t,, 0 1 e 1 e % 1 e Distribución de Gamma La distribución gamma tiene propiedades muy parecidas a las de la distribución Weibull, pero esta no es matemáticamente fácil de tratar. Es una distribución adecuada para modelizar el comportamiento de variables aleatorias continuas con asimetría positiva. Es decir, variables que presentan una mayor densidad de sucesos a la izquierda de la media que a la derecha. En su expresión se encuentran dos parámetros, siempre positivos, β y η de los que depende su forma y alcance por la derecha, y también la función Gamma Γ(β), responsable de la convergencia de la distribución. El primer parámetro β sitúa la máxima intensidad de probabilidad y por este motivo se denomina la forma de la distribución: cuando se toman valores próximos a cero aparece entonces un dibujo muy similar al de la distribución exponencial. Cuando se toman valores más elevados de β el centro de la distribución se desplaza a la derecha y va apareciendo la forma de una campana de Gauss con asimetría positiva. Es el segundo parámetro η el que determina el alcance de esta asimetría positiva desplazando la densidad de probabilidad en la cola de la derecha. Para valores elevados de η la distribución acumula más densidad de probabilidad en el extremo derecho de la cola, alargando mucho su dibujo y dispersando la probabilidad a lo largo del plano. Al dispersar la probabilidad la altura máxima de densidad de probabilidad se va reduciendo; de aquí que se le denomine escala. Valores más pequeños de η conducen a una figura más simétrica y concentrada, con un pico de densidad de probabilidad más elevado. Las funciones más relevantes de esta distribución serian: La Función de Densidad f(t) de la distribución Gamma seria: 1 1 f t t e donde t > 0 y η, β son parámetros positivos de escala y forma respectivamente y Γ(β) es la función gamma dada por: 0 t 1 u u u e du II.29

59 Capítulo II. Fundamentos Teóricos En la Figura 29 se muestra la función de densidad. Al igual que la Weibull incluye el caso exponencial cuando β = 1, se aproxima a una distribución normal cuando β. Figura 29. Función de Densidad de una Gamma. La Función de Distribución F(t) estaría representada en la Figura 30 e indicada por la siguiente expresión: 1 t 1 F t t e dt 0 t Figura 30. Función de Distribución de una Gamma. La Función de Fiabilidad R(t) de una distribución gamma estaría expresada como: 1 x x t 1 u t Rt e dx u e dx I, t II.30

60 Capítulo II. Fundamentos Teóricos donde I es la función gamma incompleta dada por: 1 t 1 u It, u e dx 0 y su representación gráfica se puede observar en la figura 31. Figura 31. Funciones de Fiabilidad de una Gamma. La Función de Riesgo o Tasa de Fallo h(t) es monótona creciente para β > 1, con h(0) = 0 y con h(t) η cuando t, y es monótona decreciente cuando β < 1, con h(0) = y h(t) η cuando t, como se puede apreciar en la figura 32. Donde la expresión de esta función de riesgo estaría dada por: h t 1 t t e t 1 I, II.31

61 Capítulo II. Fundamentos Teóricos Figura 32. Función de Riesgo o Tasa de Fallo de una Gamma. La Función de Riesgo Acumulado H(t) es una función creciente y tiende a cuando, t como se presenta en la figura 33. Figura 33. Función de Riesgo Acumulado de una Gamma. La Media o Esperanza Matemática θ = E[T] seria: La Varianza Var[T] seria: ET Var T Distribución Erlang La distribución Erlang se puede ver como un caso particular de la distribución gamma cuando β = k con k entero. Por lo que este modelo hereda las propiedades ya mencionadas en el modelo gamma bajo las respectivas restricciones. Un ejemplo seria de un dispositivo que está formado por k (k 1) unidades idénticas, conectadas secuencialmente. Inicialmente solo la unidad 1 está operativa. Cuando la unidad 1 fallo la unidad 2 se conecta automáticamente, y así sucesivamente, hasta que la unidad k fallo. Las funciones principales para esta aplicación serian expresadas de la siguiente forma: La Función de Densidad f(t) se indica su representación gráfica en la figura k1 f t t e k k 1! t II.32

62 Capítulo II. Fundamentos Teóricos Figura 34. Función de Densidad de una Erlang. La Función de Distribución F(t) es una función creciente y tiende a 1 cuando t, según se aprecia en la figura 35. t t 1 1 t k i k1 t i k! k0 i! F t x e dx e k Figura 35. Función de Distribución de una Erlang. La Función de Fiabilidad R(t) es una función decreciente y tiende a 0 cuando t, representándose en la figura 36. R t e t k 1 k0 i t i i! II.33

63 Capítulo II. Fundamentos Teóricos Figura 36. Funciones de Fiabilidad de una Erlang. La Función de Riesgo o Tasa de Fallo h(t) es similar a la función gamma, pero solo se darán valores enteros de β como se aprecia en la figura 37. i1 t ht k 1 i! k1 k0 i t i i! 1 Figura 37. Función de Riesgo o Tasa de Fallo de una Erlang. La Función de Riesgo Acumulado H(t) es una función creciente y tiende a cuando, t como se presenta en la figura 38. II.34

64 Capítulo II. Fundamentos Teóricos Figura 38. Función de Riesgo Acumulado de una Erlang. La Media o Esperanza Matemática θ = E[T] del tiempo de fallo T vendrá dada por: E T k La Varianza Var[T] seria: Var T 2 k Mantenibilidad La mantenibilidad es una medida importante de la confiabilidad para todos los tipos de sistemas reparables y refleja la capacidad del sistema para ser mantenido en, o devuelto a, un estado en el que pueda realizar la función requerida. Como ejemplos, se pueden citar las actualizaciones a mitad de vida de los proyectos software para corregir niveles bajos de la disponibilidad obtenida o sistemas remotos que son difíciles de mantener. Además, para otros sistemas, la mantenibilidad, si se especifica incorrectamente, puede tener un efecto significativo en la confiabilidad conseguida, especialmente en sistemas sin redundancias. Un tratamiento general de la mantenibilidad se muestra en la Norma IEC Una medida de la mantenibilidad es el MTTR (Mean Time To Repair) o como se conoce en castellano Tiempo Medio de Reparación. En la Figura 4 se presentó su ecuación y la representación de los distintos TTR que componen el MTTR. Se dirá que un sistema es Altamente mantenible cuando el esfuerzo asociado a la restitución sea bajo. Sistemas poco mantenibles o de Baja mantenibilidad requieren de grandes esfuerzos para sostenerse o restituirse. II.35

65 Capítulo II. Fundamentos Teóricos En los siguientes apartados se indican las características más utilizadas para la descripción cuantitativa de mantenimiento. Función de mantenibilidad M(t), es la función de distribución de la variable aleatoria DMT (duración de la tarea de mantenimiento). Representa la probabilidad de que la tarea de mantenimiento considerada se realice satisfactoriamente en un tiempo especificado t (tiempo de ineptitud total dado), o antes: Mt PDMT t mtdt t 0 Función de no reparabilidad, se expresa matemáticamente por: R t 1 M t r Esta función sería similar a la función de supervivencia evaluada a través de los tiempos de fallo pero ambas funciones se presentan con connotaciones opuestas. R r(t) se define como la probabilidad de que el sistema no haya sido reparado previamente, mientras que en supervivencia se define como la probabilidad de no haber fallado antes de un tiempo t. Con lo cual, el crecimiento de R r(t) conlleva implicaciones negativas en cuanto a la disponibilidad del sistema, mientras que el crecimiento de R(t) sucede lo opuesto. Función de densidad del tiempo de reparación, es una función de densidad de probabilidad y se expresa como: m t dm t Esta función tiene similares propiedades que la función de densidad del tiempo de fallos. Por tanto, permite el cálculo de la probabilidad de que una reparación dure en un cierto intervalo de tiempo mayor o menor que un tiempo fijado. Tasa de reparación en el instante t, mide la probabilidad que un sistema sea reparado en el intervalo [t, t + t]. Conocer este parámetro resulta muy útil en mantenimiento, ya que su evolución determina la probabilidad de que la reparación sea completada en un instante dado. La Tasa de Reparación μ(t) estaría definida mediante: dt m t t 1 M t El tiempo empleado en mantenimiento DMTp, representa el tiempo empleado en terminar un porcentaje dado de las tareas de mantenimiento consideradas. El más utilizado es el tiempo DMT 90, que representa la duración del tiempo de recuperación para el que el 90% de los trabajos de mantenimiento han finalizado. II.36

66 Capítulo II. Fundamentos Teóricos 90 DMT t M t P DMT t m t dt 0. 9 La duración esperada del mantenimiento MDMT, representa la esperanza de la variable aleatoria DMT. Matemáticamente se expresa de la siguiente forma: t 0 MDMT E DMT t mtdt En la figura 39 se representa la gráfica de una hipotética función de mantenibilidad t 0 Figura 39. Medidas de Mantenibilidad Soporte de Mantenimiento El soporte de mantenimiento es la capacidad de la organización de mantenimiento para proporcionar los recursos necesarios para mantener un sistema, esto es, cuándo y dónde se requiera, y, a menudo, la provisión del soporte de mantenimiento es crítica para asegurar la confiabilidad de los sistemas. Muy frecuentemente, el nivel de soporte de mantenimiento está afectado por las condiciones de utilización y por factores que cambian a lo largo del ciclo de vida. El soporte de mantenimiento será parte de las condiciones especificadas de operación del sistema, un prerrequisito para los valores establecidos de fiabilidad, disponibilidad y mantenibilidad Métodos Estadísticos de Estimación de la Fiabilidad y el Mantenimiento. Lo que será expuesto a continuación es totalmente valido para el Mantenimiento, pero desde un punto de vista práctico se hará referencia principalmente a la Fiabilidad. Dada la dependencia de la fiabilidad de los sistemas de la fiabilidad de sus componentes, los métodos estadísticos se centran en la estimación utilizando los datos obtenidos durante las pruebas II.37

67 Capítulo II. Fundamentos Teóricos de vida de éstos. Las pruebas pueden continuar hasta que todos los elementos de la muestra hayan fallado, o bien se pueden interrumpir, en este último caso se diría que el conjunto de datos obtenidos ha sido censurado. Una vez que se dispone de los tiempos de fallos observados se convierten en el conjunto de datos al que se aplican métodos estadísticos para obtener estimaciones de fiabilidad mediante el ajuste de algún modelo estadístico. Si no se ha logrado identificar la distribución de los tiempos de fallo, se optará por un enfoque no paramétrico. Si, por el contrario, las observaciones se ajustan a alguna de las distribuciones teóricas conocidas, se optará por usar métodos paramétricos. Los métodos no paramétricos tienden a ser más sencillos. Estos métodos son menos eficientes que los métodos paramétricos, pero resultan de gran utilidad cuando no se conoce ningún modelo paramétrico que se ajuste adecuadamente a los datos, se basa en la filosofía que algunos autores han llamado dejar que los datos decidan por sí mismos. Estos proporcionan estimaciones puntuales de R(t), f(t) y h(t) a partir de las observaciones obtenidas (sin poder suponer que éstas siguen una determinada distribución teórica). Este tipo de estudios, de gran aplicación en el contexto del análisis de supervivencia, no es de uso tan frecuente en el campo de la ingeniería de estimación de vida útil o tiempos de fallo Los métodos paramétricos son los más extendidos y las estimaciones que se obtienen apoyan unos análisis posteriores más detallados. Con mucha frecuencia, se han empleado para estimar funciones de fiabilidad y realizar contrastes de hipótesis sobre las mismas. En general estos modelos son usados en el análisis del tiempo de vida y en problemas relacionados con la modelización del envejecimiento y el proceso de fallo. El uso de métodos paramétricos requiere la elección de un estadístico de contraste adecuado. La utilización de ciertos estadísticos de contraste exige el cumplimiento de determinados requisitos, referidos a los parámetros y a la distribución poblacional. Estos requisitos son los denominados supuestos paramétricos, entre los que se suelen encontrar los siguientes: Las variables consideradas son cuantitativas continuas, medidas por lo menos en una escala de intervalos. Las muestras consideradas proceden de poblaciones en las que las variables se distribuyen según la ley normal. Si la distribución de la muestra se logra aproximar a alguna distribución teórica conocida, será posible usar la distribución teórica para proporcionar estimaciones de las funciones R(t), f(t) y h(t). Se da homoscedasticidad (homogeneidad de varianzas) entre las distintas distribuciones comparadas, es decir, las muestras proceden de poblaciones con varianzas similares. Las muestras consideradas tienen un tamaño grande. Consideraremos grande, una muestra de tamaño superior a 30 individuos (n>30). II.38

68 Capítulo II. Fundamentos Teóricos La significación de los resultados que obtengamos dependerá del cumplimiento efectivo de tales condiciones. Siempre que se cumplan los supuestos exigidos, las pruebas paramétricas resultan de mayor potencia que las no paramétricas, esto es, la probabilidad de rechazar una hipótesis nula efectivamente falsa es mayor. Teniendo esto en cuenta, el criterio que se ha de seguir de seguir a la hora de elegir entre pruebas paramétricas o no paramétricas es el de aplicar una del primer tipo siempre que las condiciones exigidas para ello se cumplan. Pero si no se cumplen tales condiciones, y especialmente si el tamaño muestral es muy pequeño, es preferible recurrir a las pruebas no paramétricas Características de los Datos. Son múltiples las ocasiones en las que solo se tienen datos completos de la variable de interés T (tiempo de ocurrencia de un suceso, igualmente de interés) en una parte (que usualmente es pequeña) de las n unidades o unidades de la muestra que se desea analizar, mientras que del resto solamente se tiene información parcial o incompleta. Esta particularidad, es la que dificulta el análisis estadístico en los estudios de Fiabilidad y de Análisis de Supervivencia, pues se dice que buena parte de los datos de la muestra vienen con datos incompletos o censurados. Las técnicas paramétricas tradicionales tienden a despreciar la información contenida en los datos censurados lo cual puede sesgar los resultados obtenidos. Es por ello, que los datos con censura se suelen asociar en mayor medida a los estudios de fiabilidad no paramétricos. Las características particulares que usualmente se presentan en los datos serian la Censura y el Truncamiento Censura Normalmente, los datos asociados a tiempos de vida presentan observaciones incompletas. La estimación de las características de la fiabilidad cambian respecto a la estimación clásica de muestras completas. Un fenómeno que produce datos incompletos es la censura. Formalmente, se dice que una observación es censurada por la derecha de un valor C si el valor exacto de tal observación no es conocida pero sí se sabe que excede del tiempo C. Análogamente, una observación es censurada por la izquierda de C cuando sólo se sabe que el valor de la observación es menor que C. También puede aparecer la censura por intervalo, donde los datos censurados presentan censura por la derecha y por la izquierda. Es más común que aparezca la censura por la derecha que por la izquierda con datos asociados a tiempos de vida. Para poder hablar de censura se tendrá que tener en cuenta la forma en cómo se obtuvieron los datos. El problema fundamental es II.39

69 Capítulo II. Fundamentos Teóricos determinar la distribución de la muestra y correspondiente función de verosimilitud de un proceso para así determinar los métodos estadísticos que derivan de ello Censura por la Derecha Censura Tipo I Inicialmente se ha de considerar la Censura Tipo I donde el evento es observado solamente si este ocurre antes de un tiempo predeterminado, independientemente del tamaño de la muestra. Un ejemplo de este tipo de censura se puede exhibir en un estudio de ciertos elementos que comienza con un número fijo de estos, a los cuales se les aplica uno o varios tratamientos, siendo la muerte de las unidades el evento de interés. Debido al tiempo o por las consideraciones de costes, el investigador tiene que terminar el estudio antes de que se presente el evento de interés en todas las unidades, sacrificando a las que no han fallecido. Los tiempos de vida o supervivencia registrados para las unidades que murieron durante el periodo de estudio son los tiempos desde el inicio del estudio hasta su muerte. Estos son llamados observaciones exactas o no censuradas. Los tiempos de supervivencia de las unidades sacrificados no son conocidos exactamente, pero son registrados como al menos la longitud del estudio. Estas son llamadas observaciones censuradas. Algunas unidades podrían perderse o morir accidentalmente y sus tiempos de supervivencia hasta el momento de perderse o morir, son también observaciones censuradas, pero no corresponderán a la Censura Tipo I. En censura de este tipo es conveniente usar la siguiente notación cuando se observa a cada uno de los n individuos hasta un tiempo predeterminado C > 0, observando si los tiempos de vida t i, con i = 1,...,n, asociados a cada individuo son mayores o menores que este valor C. Si t i > C estaremos en condiciones de saber que cada t i es mayor que ese valor prefijado C pero no su valor exacto, por lo que diremos que éste es un dato censurado. Estos datos pueden ser convenientemente representados por n pares de variables aleatorias (Z i, Δ i), donde: y Z i = mín(t i, C) 1 i 0 sería el indicador censura, que valdrá 1 si el dato es observado y 0 si el dato es censurado. si t i si t i C C La contribución del par de variables (Z i, Δ i) a la función de verosimilitud: i RZ 1 f Z i donde los datos observados contribuyen en la expresión anterior con su función de densidad y los datos censurados con su función de fiabilidad. Por lo tanto, la función de verosimilitud en el caso de censura tipo I seria: i i II.40

70 Capítulo II. Fundamentos Teóricos n n i 1 i i 1 i f T i RC i f Zi RZi i1 i1 Cuando las unidades de estudio tienen diferentes tiempos de censura, fijados previamente, esta forma de censura es llamada: Censura Tipo I progresiva. Este tipo de censura se puede representar mediante el siguiente ejemplo que presenta dos diferentes tiempos de censura. Suponga que se tienen 20 unidades en un experimento donde el evento de interés es la muerte. Suponga que se han marcado 10 de color rojo y los restantes 10 de color azul, de manera que se ha determinado a cada grupo de unidades, tiempos de censura de 42 y 104 semanas respectivamente. De modo que las unidades con marca roja que sobrevivan 42 semanas serán sacrificadas, así como las marcadas de color azul que lleguen vivas a las 104 semanas. Una forma de ampliar la perspectiva de la Censura Tipo I es cuando las unidades entran al estudio a diferentes tiempos, y el punto terminal de estudio predeterminado por el investigador es el mismo para todas. En este caso, el tiempo de censura para cada unidad es conocido en el momento en que entra al estudio, de manera que cada unidad tiene fijo y especificado su propio tiempo de censura. Este tipo de censura ha sido denominado Censura de Tipo I generalizada. Este tipo de censura es ilustrado en la figura 40 para 4 unidades, donde t 1 = X 1.- Tiempo de fallo para la primera unidad (Δ 1 = 1). t 2 = C r2.- Tiempo censurado por la derecha para la segunda unidad (Δ 2 = 0). t 3 = X 3.- Tiempo de fallo para la tercera unidad (Δ 3 = 1). t 4 = C r4.- Tiempo censurado por la derecha para la cuarta unidad (Δ 4 = 1). Figura X1. Censura tipo 1 generalizada para 4 unidades. Figura 40. Censura de Tipo I Generalizada II.41

71 Capítulo II. Fundamentos Teóricos Una representación conveniente de la Censura de Tipo I generalizada se da al re-escalar la entrada al estudio de cada unidad al tiempo cero como se muestra en la figura 41. Figura 41. Censura de Tipo I Generalizada para 4 unidades Re-escaladas al Tiempo Cero. Otro método de representación es mediante el diagrama de Lexis. Donde el tiempo calendario se encuentra en el eje horizontal, y la longitud del tiempo de vida es representada por una línea de 45. El tiempo que una unidad pasa en el estudio es representado por la altura de la proyección de la línea en el eje vertical. Esto es ilustrado en la figura 42. Figura 42. Diagrama de Lexis para la Censura de Tipo I Generalizada. II.42

72 Capítulo II. Fundamentos Teóricos Censura Tipo II Un segundo tipo de censura por la derecha es la Censura tipo II, en la cual hay dependencia del tamaño de muestra (denotado por n) y los fallos que se observen. Aquí, todas las unidades son puestas en estudio al mismo tiempo y se finaliza cuando r de las n unidades han presentado el evento de interés. Donde r es un numero entero positivo determinado previamente por el investigador, tal que r < n. La notación conveniente para este tipo de censura se presenta como sigue. Sean t 1, t 2,...,t n los tiempos de fallo de los n unidades y sean t (1), t (2),..., t (n) sus respectivas estadísticas de orden. Entonces el final del estudio queda dado de forma aleatoria por t (r), la r-ésima estadística de orden. Por tanto, (n - r) observaciones serán censuradas y fijadas al tiempo t (r).en este caso, el tiempo de censura es aleatorio, pues (n - r) observaciones serían censuradas al tiempo dado por el fallo r-ésimo, el cual no se conoce cuando ocurrirá. De modo que esto marca una diferencia importante entre la Censura de Tipo I y la Censura tipo II. Tipo I Censura Tipo II C deter minístico X aleatorio Formalmente, supongamos que tenemos los r tiempos de vida ordenados más pequeños, t (1) <... < t (r) de una muestra aleatoria T de orden n. Si t 1,...,t n tienen distribución continua y son independientes e idénticamente distribuidos con función de densidad f(t) y función de fiabilidad R{t), entonces la función de verosimilitud de la muestra ordenada t (1),..., t (r) seria: n! 1 n r! r r f t f t R t Una generalización de la Censura tipo II es similar a la generalización en la censura tipo I, con diferentes tiempos de censura. Esta es llamada Censura tipo II progresiva. Aquí, el investigador debe fijar los siguientes elementos antes de comenzar el estudio. K será el número de diferentes tiempos de censura que se realizarían a lo largo del estudio en una muestra de tamaño n. r 1, r 2,...,r k (k números enteros positivos) serán el número de sujetos que deberán presentar el evento de interés para determinar el respectivo tiempo de censura y n 1,n 2,...,n k (k números enteros positivos tales que n 1 + n n k = n ) serán el número de unidades que deben estar fuera del estudio a cada tiempo de censura. Con estos elementos, el estudio sería realizado de la siguiente forma: Al presentarse los primeros r 1 eventos de interés, también denotados por fallos, n 1 - r 1 unidades serán retiradas de los n - r 1 unidades sobrevivientes, quedando n - n 1 unidades en el estudio. Cuando se presenten las siguientes r 2 fallos, n 2 - r 2 unidades serán retiradas de los (n - n 1) - r 2 unidades sobrevivientes, quedando n - (n 1 + n 2) unidades en el estudio. Y así sucesivamente hasta que al tener r k fallos de los n - (n 1 + n n (k-1) = n k unidades sobrevivientes en el estudio, los (n - n 1 n n (k-1)) r k= n k- r k unidades restantes sean eliminadas, dando por terminado el experimento. De este modo, si t i denota el tiempo del i-ésimo sujeto en presentar el evento de interés (lo cual excluye a las nr II.43

73 Capítulo II. Fundamentos Teóricos unidades removidas intencionalmente), los K tiempos de censura serán las variable aleatoria T. t r1, t ni + r2, t n1 + n2 + r3,..., t n1 + n nk - 1+ rk. La Censura tipo II progresiva puede ser representada mediante el siguiente ejemplo. Suponga que se tienen 100 unidades en un experimento donde el evento de interés es la muerte. Se definen 3 tiempos de fallo distintos. El primer tiempo de fallo se dará cuando mueran 15 unidades, en ese momento, se retiraran del estudio 15 unidades de las 85 vivas, continuando en el estudio 70 unidades. El segundo tiempo de fallo se dará cuando mueran 20 unidades de las 70 en estudio, en ese momento, se retirarán 10 unidades de las 50 vivas, quedando 40 unidades en estudio. El tercer tiempo de fallo quedara determinado cuando mueran 30 unidades de las 40 en estudio y se sacrificarán en ese momento las 10 unidades supervivientes. De este modo, en el primer tiempo de fallo se obtendrán 15 eventos y 15 censuras, en el segundo tiempo de fallo se obtendrán 20 eventos y 10 censuras, y en el tercer tiempo de fallo se obtendrán 30 eventos y 10 censuras Censura Tipo III o Aleatoria Otro tipo de censura es la Censura tipo III o también llamada Censura aleatoria, la cual surge cuando las unidades salen del estudio sin presentar el fallo por razones no controladas por el investigador. Por ejemplo, en un estudio donde el evento de interés es la muerte por alguna razón específica, una unidad puede presentar Censura aleatoria si fallece por alguna razón ajena a la de interés, o si el investigador pierde acceso a ella y esta sale del estudio. Este tipo de procesos son aquellos en los que se supone que cada individuo tiene asociado un tiempo de vida t i y un tiempo de censura C, donde t i y C son variables aleatorias continuas con funciones de densidad f(t) y g(t) y funciones de fiabilidad R(t) y S(t), respectivamente. Todos los tiempos de vida así como los tiempos censurados son mutuamente independientes. Este tipo de censura es una generalización de la censura tipo I, ya que en vez de considerar un tiempo prefijado C constante, se tendrá asociado para cada t i un valor C i, con i = 1,...,n. Como pasaba con la censura tipo I, se tendrá que: y Z i = mín(t i, C) 1 i 0 Los datos de las observaciones sobre n individuos vendrán dados por los pares (Z i, Δ i), i= 1,...,n. si t i si t i C C Entonces, la contribución del par (Z i, Δ i) a la función de verosimilitud seria: i 1 i f Zi S Zi g Zi R Zi II.44

74 Capítulo II. Fundamentos Teóricos donde un dato censurado contribuye con su función de densidad y la función de fiabilidad del dato no censurado y un dato observado contribuye con su función de densidad y la función de fiabilidad de la censura. En este caso, la función de verosimilitud seria: n i1 i 1 i f Zi S Zi g Zi R Zi Censura por la Izquierda Un tiempo de vida X asociado con una unidad específica en el estudio, es considerada censurada por la izquierda, si esta es menor que un tiempo de censura C l (C l por el nombre en inglés left censoring ). Esto es, que el evento de interés le ha ocurrido a la unidad en estudio, antes de que la unidad haya sido observada por el investigador al tiempo C l. Para estas unidades, se conoce que han presentado el evento en algún tiempo antes de C l. El dato proveniente de una muestra censurada por la izquierda puede ser representado por la pareja de variables aleatorias (T, є) donde T = X si el tiempo de vida es observado o T = C l si es censurado y є indica cuando el tiempo de vida exacto es observado (є = 1) o no (є = 0). Algunas veces, si la censura por la izquierda ocurre en el estudio, la censura por la derecha puede ocurrir también y los tiempos de vida son considerados doblemente censurados. De nuevo, los datos pueden ser representados por una pareja de variables (T, Δ) donde T = máx [min(x, C r), C l] es el tiempo de estudio y Δ i es una variable indicadora definida como sigue: 1 si T es el tiempo de ocurrencia del evento i 0 si T es el tiempo censurado por la derecha 1 si T es el tiempo censurado por la izquierda Censura por Intervalo Este es un tipo de censura más general que ocurre cuando el tiempo de vida se conoce que ocurre solamente dentro de un intervalo. Este tipo de censura se presenta cuando se tiene un estudio longitudinal donde el seguimiento del estado de las unidades se realiza periódicamente y por tanto, el fallo sólo puede conocerse entre dos periodos de revisión, generando un intervalo de la forma (L i, R i) para cada sujeto en el estudio Truncamiento Una segunda característica que puede presentarse en algunos estudios de vida o supervivencia, son los datos truncados. El truncamiento es definido como una condición que presentan ciertas unidades en el estudio y el investigador no puede considerar su existencia. Cuando los datos presentan truncamiento, solamente II.45

75 Capítulo II. Fundamentos Teóricos a las unidades a las que les ocurre algún evento particular, antes del evento de interés o la censura, son consideradas en el análisis por el investigador Truncamiento por la Izquierda Este ocurre cuando las unidades entran al estudio a una edad particular (no necesariamente el origen del evento de interés), y son observadas desde este tiempo retrasado de entrada, hasta que el evento ocurre o hasta que el evento es censurado. Si Y es el momento de ocurrencia del evento que trunca a las unidades en estudio, entonces para muestras truncadas por la izquierda, solo las unidades tales que X > Y serán consideradas. El tipo más común de truncamiento por la izquierda ocurre cuando las unidades entran al estudio a una edad aleatoria y son observadas por este tiempo retrasado de entrada, hasta que el evento ocurre o hasta que la unidad es censurada por la derecha. En este caso, todas las unidades que presenten el evento de interés antes del tiempo retrasado de entrada, no serán consideradas para el experimento. Note que esto es opuesto a la censura por la izquierda, donde se tiene información parcial de unidades que presentan el evento de interés antes de su edad de entrada al estudio, para truncamiento por la izquierda, estas unidades no serán consideradas para ser incluidas en el estudio Truncamiento por la Derecha Este ocurre cuando solo unidades que han presentado el evento son incluidas en la muestra y ninguna unidad que haya presentado aún el evento será considerada. Un ejemplo de muestras que presentan truncamiento por la derecha, son los estudios de mortalidad basados en registros de muerte Estimación no Paramétrica En ocasiones puede resultar adecuado, o incluso necesario, iniciar el análisis con métodos no paramétricos, pues éstos no requieren de grandes supuestos previos sobre el modelo de las observaciones. Los modelos no paramétricos, son métodos analíticos y gráficos que permiten interpretar los datos obtenidos, sin la distorsión que podría causar la elección de un modelo paramétrico subyacente no demasiado acertado. En los estudios no paramétricos, no se asume ningún tipo concreto de modelo probabilístico para los tiempos de fallo y las funciones básicas (fiabilidad, riesgo) se estiman directamente de los datos. En algunos casos, estos métodos no paramétricos serán suficientes para realizar el análisis de los datos. Sin embargo, en otras circunstancias, son un paso intermedio hacia un modelo más estructurado (paramétrico), que permita profundizar más en el análisis de las observaciones. II.46

76 Capítulo II. Fundamentos Teóricos Se describirán a continuación tres métodos no paramétricos: las Tablas de Vida, el estimador Kaplan-Meier y el método de Nelson Aalen Tablas de Vida Las tablas de vida tienen como objetivo describir y establecer previsiones sobre la mortalidad, fiabilidad o supervivencia de una población de interés, a partir de la consideración de un conjunto de datos procedentes de un estudio, a los cuales se les hace un seguimiento en un período de tiempo determinado, comprobando si se registra en cada uno de las unidades o elementos, la presencia o ausencia de una característica o evento de interés (Aprendizaje de un método, recuperación física de un paciente, mortalidad de un enfermo, fallo de un dispositivo, etc.) en la población. La validez de éste método exige que la distribución del tiempo de fallo de todos los individuos, censurados y no censurados, sea la misma. Este es uno de los métodos más clásicos y directos para describir la fiabilidad de una muestra a través de la llamada tabla de Supervivencia o Actuarial, la cual no es más que una tabla de frecuencias mejorada y ampliada. A partir de ella, es posible hacer una primera estimación sobre los comportamientos de las funciones de supervivencia R(t), distribución F(t), densidad f(t), y tasa de fallo h(t). La distribución de los tiempos de fallo se divide en un determinado número de intervalos que se denotara (t i-1, t i].para cada intervalo se registra el número de observaciones o dispositivos que han entrado en buen estado n i (número que entra en el intervalo), el número de los que han fallado d i (número de eventos terminales), y el número de observaciones pérdidas o censuradas en r i (número que sale en el intervalo). Se calcula a partir de ellos el número de expuestos al riesgo, asumiendo que las pérdidas se producen homogéneamente a lo largo del mismo, su número promedio es n' i = n i - 0.5r i. La probabilidad de fallo es la proporción p i = d i / n' i, y la de supervivencia es q i = 1 - p i. Casi todas las tablas de vida presentan una estructura más o menos estándar con la descripción detallada de las siguientes columnas: (t i-1, t i]: identifica los extremos del intervalo de tiempo i-ésimo. El extremo inferior del primer intervalo, t 0, suele ser 0; si el ensayo no termina hasta que se observe el fallo de todos los individuos, el extremo superior del último intervalo es t s-1 =. t i : punto medio del intervalo i-ésimo. l i: número de individuos que abandonan el experimento y cuyo tiempo de censura, pertenece al intervalo i-ésimo. c i: número de individuos cuya respuesta o fallo no se ha observado al finalizar el instante final t i del intervalo i-ésimo. II.47

77 Capítulo II. Fundamentos Teóricos El tratamiento en el proceso de estimación de ambos tipos de observaciones censuradas, l i y c i es idéntico; por ello, en la mayoría de las tablas no se hace la distinción anterior y se define una única columna r i, r i: número de censuras en el intervalo i-ésimo. Desde luego, r i = l i + c i d i: número de fallos en el intervalo (t i-1, t i] n i: número de individuos en riesgo al inicio del intervalo i-ésimo (que permanecen vivos y en el estudio al comienzo de t i-1). La siguiente relación facilita su cálculo: n n d r i i1 i1 i1 n' i: número estimado de individuos expuestos a riesgo durante el intervalo i-ésimo. Si en el intervalo no hay observaciones censuradas, n i = n' i, en otro caso, la hipótesis usual es suponer que las observaciones censuradas ocurridas durante el intervalo se distribuyen en el uniformemente. Por ello, en media, los individuos con observación censurada están expuestos a riesgo durante la mitad de la duración del intervalo, de modo que: 1 ni ni ri 2 p i: proporción de fallo en el intervalo i-ésimo. Este valor estima la probabilidad de fallo en ese intervalo, condicionada a que el individuo no había fallado al comienzo del mismo. Si en el intervalo no hay observaciones censuradas, el estimador natural de esta probabilidad es d i / n i si las hay, este estimador tiende a subestimar dicha probabilidad, ya que es posible que alguno de los individuos censurados en el intervalo muera antes de finalizar el mismo. Por esta causa, es necesario realizar un tipo de ajuste; la alternativa habitual consiste en sustituir n por el número estimado de individuos expuestos a riesgo n' i: d i pi n i La validez de este ajuste, en cierta medida arbitraria, depende de las características de los procesos de censura y de fallo. Bajo el esquema de censura aleatoria, este estimador seria inconsistente y sesgado. Sin embargo, cuando la proporción de censura no es excesiva y se distribuye de forma homogénea, si los intervalos no son muy amplios y los valores de ni no son demasiado pequeños, el comportamiento de este estimador es aceptable. q i: proporción de supervivencia en el intervalo i-ésimo. Este valor estima la probabilidad de que un individuo sobreviva al instante t i:, dado que estaba vivo al inicio del intervalo i- ésimo. Se define: q 1 p i i II.48

78 Capítulo II. Fundamentos Teóricos Pˆ t i Rˆ : proporción de supervivencia en el instante t i del ensayo. Este valor estima R(t i)= i P(T > t i) Si un individuo sobrevive hasta el inicio del intervalo (i + 1) -ésimo, implica que dado que ha sobrevivido hasta el comienzo del intervalo i-ésimo, no falla durante el intervalo i-ésimo; así: Pˆ t Rˆ q Pˆ t i i i i 1 Aplicando reiteradamente esta relación y dado que ˆP t 0 es igual a 1, se obtiene: i ˆ i i i1 1 Pˆ t R q q q Este estimador de la función de supervivencia se llama estimador actuarial. En los instantes que no son extremo de un intervalo, es habitual calcular su valor mediante interpolación lineal entre los valores de los correspondientes extremos. f t i : tasa o proporción de fallo en el intervalo i-ésimo por unidad de tiempo. Este valor estima la función de densidad de T en el punto medio del intervalo de anchura b i: f t i Pˆ t Pˆ t i1 b i ht i : tasa instantánea condicional de fallo correspondiente al punto medio del intervalo i í-ésimo. Con este valor se estima la función de riesgo en t i : h t i i i f t f ti Pˆ t Rˆ La estimación de la función de riesgo también puede expresarse como: h t i b i 2pi di 1qi di bi ni 2 i Precisión de las Estimaciones. Los valores de q i, p i y Pˆ t i Rˆ son estimaciones sujetas a la variabilidad inherente al proceso de i muestreo, por lo que deben completarse con información relativa a su precisión. Bajo determinadas hipótesis sobre los mecanismos de censura es posible, aunque complicado, deducir estimaciones de sus varianzas. Por esta razón, aunque la metodología de las tablas de vida clínicas es antigua, el estudio teórico de las propiedades estadísticas de sus estimadores es reciente y está aún por completar. En este apartado se presentan algunas de las propiedades y resultados más utilizados. La mayor parte de estos resultados se han obtenido para el caso de muestras completas, pero se suelen generalizar y aplicar también al caso de muestras censuradas. La estimación más empleada de la varianza de ˆ j P t Rˆ seria la propuesta por Greenwood: j II.49

79 Capítulo II. Fundamentos Teóricos ˆ ˆ p ˆ d Var R R R 2 j t 2 j t j j t1 j q t 1 tn t nt nt dt Esta estimación, resultado de una aproximación asintótica es razonable cuando el valor esperado de n j no es demasiado pequeño y requiere, si la proporción de censura en la muestra es importante, que el número de intervalos considerados no sea muy pequeño. La expresión anterior tiende a subestimar la varianza de ˆP t j, especialmente en los intervalos de la cola derecha de la distribución donde el valor esperado de n j suele ser pequeño. No obstante en esos casos su cálculo no es adecuado ya que la distribución de ˆP t j suele ser muy sesgada y, en consecuencia, la varianza no es una buena medida de precisión de la estimación Estimador de Kaplan-Meier (KM) de la Función de Fiabilidad. El impulso de las técnicas de estimación no paramétricas con datos censurados es relativamente reciente. Se inicia con los aportes de Kaplan y Meier quienes publican algunos resultados obtenidos en ese momento para observaciones censuradas a la derecha y añaden un estudio de las propiedades básicas de un nuevo estimador, que se conocerá más tarde con el nombre de sus creadores. De los métodos no paramétricos, desarrollados para estimar la función de fiabilidad con datos no agrupados en presencia de censura, el más utilizado es el estimador producto límite de Kaplan-Meier. Dicho método descompone la supervivencia o fiabilidad de una unidad al cabo de t años, en un producto de probabilidades condicionadas, que deben ser previamente estimadas, antes del cálculo del estimador. La diferencia fundamental entre el método actuarial y el de KM (que también es una función escalonada), radica en que las estimaciones de Kaplan-Meier están basadas en tiempos de fiabilidad individuales, sin agrupar, mientras que en la estimación por tablas de vida los individuos han sido previamente agrupados en intervalos. La ventaja del método de KM respecto a las tablas de vida, es que las estimaciones resultantes por este método no dependen de cómo se agrupan los datos en los intervalos. De hecho, Kaplan-Meier se podría considerar como un caso particular del método actuarial. La estimación producto-límite es definido de la siguiente manera: Se supone que hay observaciones de n unidades o individuos y K (K n) distintos tiempos t 1 < t 2 <... < t k en los cuales ocurren fallos. En los n individuos se permite la posibilidad de que haya más de un fallo en t j, se denotara por d j el número de fallos en t j. Adicional a los tiempos de vida t 1,...,t k existen a su vez tiempos de censura t j+, para aquellos individuos en los que el tiempo de vida no es observado. La estimación producto-límite de R(t) para la duración t, es una función escalonada, que se calcula como el producto de uno menos el riesgo existente hasta el período t: nj dj ˆR t n j:t t j j II.50

80 Capítulo II. Fundamentos Teóricos Donde d j representa el número de fallos ocurridos en el momento t j y n j es la población superviviente en el momento t j o el número de individuos en riesgo en t j. Si se diese el caso de alguna observación censurada cuyo valor coincidiera con un tiempo de fallo, se hace la hipótesis de que la unidad censurada ocurre inmediatamente después del tiempo de fallo y, en consecuencia, las unidades censuradas en ese instante se contabilizan como unidades en riesgo. El estimador KM de R(t) da una estimación puntual o un único valor para esta función en cualquier instante t. Por lo tanto, si se desea tener una medida de la precisión de este estimador en diferentes instantes de tiempo o sobre diferentes muestras, es necesario contar con un buen estimador de la varianza del estimador KM, el cual viene dado por la expresión de Greewood: Var Rˆ t Utilizando la normalidad asintótica de aproximado para donde Z Rˆ t 1 2 Rˆ t ˆR t, a un nivel del 100(1-α)%: 2 j:t t j d t n n d j j t ˆR t, se puede construir el siguiente intervalo de confianza 1 2 Rˆ t Z ee Rˆ t es el cuantil correspondiente a la distribución normal estándar y ee Var Rˆ t es el error estándar de estimación del estimador KM de R(t), que se calcula con la anterior fórmula de Greewood Intervalo de Confianza Usando la Transformación log Una forma alternativa de estimar un intervalo de confianza para la función de supervivencia es transformando el valor de ˆR t en el rango (-, ) con la transformación log(r(t)) y obtener un intervalo de confianza para este valor transformado. El resultado induce un intervalo de confianza para R(t). Este intervalo de confianza para el verdadero valor del logaritmo de la función de supervivencia al tiempo t, es obtenido con el supuesto de que sigue una distribución asintótica normal con media log(r(t)) y varianza estimada por k j j1 es una aproximaci0n de la distribución de ˆ j nj d j n d logr t. Por tanto, un intervalo de un 100(1 - α) % de confianza para log(s(t)), para un valor específico de t está dado por: donde logrˆ t z s.e. logrˆ t, log Rˆ t z s.e. log Rˆ t II.51

81 Capítulo II. Fundamentos Teóricos s.e. log Rˆ t donde z 1-α/2 es el cuantil que acumula 1 - α/2 de probabilidad en una distribución normal estándar Una banda de confianza para el verdadero valor de R(t) de un 100(1 - α) % de confianza para un valor especifico de t está dado por Rˆ t exp z s.e. log Rˆ t, Rˆ t exp z s.e. log Rˆ t Este intervalo es una forma de crear una banda de confianza para la función acumulativa de riesgo H (t) puesto que H (t) = log(r(t)). k j1 n d j j j n d j Intervalo de Confianza Usando la Transformación log-log Otra forma alternativa de estimar un intervalo de confianza para la función de supervivencia es transformando el valor de ˆR t en el rango (-, ) con la transformación log-log dada por: log(- log(r(t))), y obtener un intervalo de confianza para este valor transformado. El resultado induce un intervalo de confianza para R(t). Este intervalo de confianza para el verdadero valor del log(-log(r(t))) al tiempo t, es obtenido con el supuesto de que una distribución asintótica normal con media log(-log(r(t))) y desviación estándar estimada por la expresión de s.elog logr ˆ t es una aproximación de la distribución de log logr ˆ t. Por tanto, un intervalo de un 100(1 - α) % de confianza para log(-log(r(t))), para un valor específico de t está dado por loglogrˆ t z s.e. log logrˆ t, log log Rˆ t z s.e. log log Rˆ t donde 1 logr ˆt log Rˆ t s.e. log d k j 1 j njn j dj y z 1-α/2 es el cuantil que acumula 1 - α/2 de probabilidad en una distribución normal estándar Este intervalo induce una banda de confianza para el verdadero valor de SR(t) de un 100(1 - α) % de confianza para un valor especifico de t está dado por Rˆ t exp z s.e. log log Rˆ t, Rˆ t exp z s.e. log log Rˆ t II.52

82 Capítulo II. Fundamentos Teóricos Propiedades del Estimador Kaplan-Meier En la literatura estadística, las propiedades deseables en un buen estimador tienen que ver con que sea Insesgado, Consistente, Eficiente y Suficiente, y el estimador KM, tiene varias de estas propiedades, esto es: Consistencia, Eficiencia, ser un estimador de máxima verosimilitud para datos censurados y además es normalmente asintótico, lo que se traduce en una gran facilidad de cálculo y en poder ser utilizado casi con exclusividad en problemas con datos censurados a la derecha; aparte de que cuando las estimaciones de R(t) se hacen con datos completos (ausencia de censura), su expresión coincide con la del estimador no paramétrico de la función empírica de fiabilidad (FES). Resumiendo, el estimador KM con grandes muestras, tiene muchas de las propiedades deseables en un estimador, pero estas mismas propiedades con pequeñas muestras ya no son tan robustas. En particular, es sesgado para muestras finitas y la magnitud del sesgo es inversamente proporcional al tamaño de la muestra. De otra parte la eficiencia asintótica del estimador KM, es inferior a la del estimador paramétrico de máxima verosimilitud, si el nivel de censura es alto o la supervivencia está próxima a cero. De otra parte, cuando los datos están doblemente censurados en la estimación no paramétrica de R(t), se emplea con alguna frecuencia el estimador propuesto por Turnbull, el cual tiene propiedades similares a las de KM, entre ellas la autoconsistencia para datos arbitrariamente agrupados, censurados y truncados Estimador de Kaplan- Meier Ponderado (KMP) El problema que se presenta con el estimador de Kaplan-Meier (KM) cuando la base de datos del estudio contiene una fuerte censura o alto porcentaje de observaciones con censura, es que sus estimaciones por lo regular, no sólo tienen la tendencia a sobrestimar la fiabilidad o supervivencia de las unidades o individuos en estudio con un alto margen de sesgo, sino que van acompañadas de muy poca variabilidad de las estimaciones. Las estimaciones de KM obtenidas en realidad son estimaciones sesgadas (sobrestimaciones), porque el método parte del supuesto de que los dispositivos con censura, se conservan vivos (sin averías) hasta el siguiente fallo (incluso después de largos períodos de tiempo). Nada más lejos de la realidad, pues esto es como suponer que el paso del tiempo de un año al siguiente no tiene ningún efecto, ni acción sobre las observaciones (personas en el caso de estudios y tratamiento de enfermedades), razón por la cual, cobra importancia la necesidad de reducir el sesgo que producen las estimaciones de KM con datos censurados. Para corregir en principio esta aparente debilidad, se propone una modificación al método original de estimación de KM y que consiste en ponderar o acompañarle a las observaciones con censura, un factor o tasa de no censura, propuesta por Bahrawar et al. (2005), quienes aplicaron esta metodología con "datos de Trasplante de Corazón en Stanford, donde la variable respuesta era el tiempo de II.53

83 Capítulo II. Fundamentos Teóricos supervivencia del paciente después del trasplante. La tasa de censura de la base de datos de Stanford era del 27%. El método de KM p propuesto, responde a esta situación y considera la censura como una parte importe del análisis, que se involucra directamente en la fórmula de su factor de ponderación W j, conocido como tasa de no censura y que está definido por: nj cj wj con 0 wj 1 n j De modo que si W j = 1, no hay censura en el instante t j (pues C j = 0), pero si W j < 1, en el instante t j hay al menos una censura. El estimador KM p, se define entonces como: En este caso las estimaciones KMp R t 1 si t 0 nj d j j:t j t nj 0 si t 0 R t estarían definidas para todo t 0, alcanzando el valor 0, aún en el caso de que la última estimación sea censurada, se sugiere considerar la última observación censurada como un fallo, para garantizar su definición en todo instante. Si no hay censura, coincide con la función empírica de supervivencia FES, ya que W j = 1 y su vez se convierte en la FES, si todos los datos son completos. R t R t coincidiría con KM, que a Función empírica de Fiabilidad (FES) Si se tienen n tiempos de fallo ordenados, t 1 t 2... t n, donde no hay censura, el número de unidades que sobreviven el instante t j es n - i. Por lo tanto, una plausible estimación no paramétrica de la función de fiabilidad R(t) en t j, sería simplemente la proporción de unidades que sobreviven en el instante t j: n i ˆR ti i 1, 2,,n n En consecuencia habría una probabilidad cero de sobrevivir más allá de t n. Como es improbable que ningún valor muestral alcance el tiempo hasta el fallo más alto, esta expresión tiende a subestimar la fiabilidad de la componente. En una muestra de datos sin censura, el estimador KM coincide con este estimador, usualmente conocido como función empírica de supervivencia o fiabilidad (FES) II.54

84 Capítulo II. Fundamentos Teóricos Estimador Nelson-Aalen (NA) de la Función de Riesgo Acumulado Fue propuesto por primera vez en el ámbito de la fiabilidad por Nelson, W., y redescubierto independientemente por Altschuler, quien lo obtuvo utilizando técnicas de procesos de conteo con animales. Dado que la función de riesgo acumulado está definida por H(t) = Ʌ(t) = -ln R(t), un estimador natural de esta función se define también por: Donde Hˆ t lnrˆ t ˆR t es el estimador KM de la función R(t). Otro posible estimador de esta misma función H(t) = Ʌ(t), definido por Nelson (NA), es la función empírica de riesgo acumulado: H t t d n Donde d n representa el número de fallos ocurridos en el instante t j y n j es el número de individuos en riesgo en t j. El cociente d j / n j, proporciona una estimación de la probabilidad condicionada de que una unidad que sobrevive hasta justo antes del instante t j, falle en el instante t j. Esta es la cantidad básica a partir de la cual se construyen los estimadores de la función de fiabilidad R(t) y la función de impacto H(t). En realidad, j,t j t H t lo que hace es recoger (para todo t j t) las estimaciones puntuales d j / n j de la función de riesgo, h(t j) = h j en cada instante de fallo t j y acumularlas. A partir de la relación logarítmica entre Ʌ(t) y R(t), se obtiene un estimador alternativo j j R t, de la función de supervivencia, conocido comúnmente como el estimador de Nelson-Aalen, de la función de supervivencia, cuya relación seria: t R t e e Este estimador ha sido tema de discusión (para el caso de una variable continua) por parte de diferentes autores. La conclusión es que, en el caso de que T sea una variable aleatoria continua, y j,t j t d n j j Ĥt t son asintóticamente equivalentes y con la excepción de valores altos de t, donde las estimaciones son más inestables, la diferencia entre ambos será, por general pequeña. En la práctica t es una aproximación lineal de primer orden de la función calcular, no hay razones de fondo para preferir uno u otro. t Ĥ t. Aunque es más sencillo de Estas estimaciones son de gran utilidad en la construcción de gráficas, para evaluar la selección de una determinada familia paramétrica de distribuciones, cuando se trata de modelizar la distribución del tiempo de vida de una unidad y realizar unas primeras estimaciones de los parámetros del modelo seleccionado. II.55

85 Capítulo II. Fundamentos Teóricos Estimadores de la Función de Fiabilidad para Datos Truncados a la Izquierda y Censurados a la Derecha En lo que sigue, nos planteamos el problema de obtener un estimador para la función de fiabilidad R(t) = P(T > t). A partir de dicho estimador, es posible obtener estimaciones para otras funciones de interés como son la función de distribución F(t) = 1 - R(t) o la función de impacto (riesgo acumulado) H(t) = -ln R(t)). La primera referencia sobre un estimador no paramétrico de la función de distribución F para datos censurados y truncados son realizadas por Turnbull (1976), quien en su trabajo utiliza una idea sobre autoconsistencia para construir un algoritmo que obtiene el estimador de máxima verosimilitud de F: Las primeras propiedades del estimador de Turnbull, que resulta ser un estimador de tipo límite producto, al igual que los de Kaplan-Meier y Linden - Bell, con comportamiento asintótico, y con fuerte consistencia uniforme. Las representaciones descomponen al estimador en una suma de variables i.i.d. más un término de error. Los estimadores para la función de supervivencia y otras funciones, basados en muestras censuradas a la derecha, pueden modificarse para manipular muestras truncadas a la izquierda y censuradas a la derecha. En esta situación asociamos al j-ésimo individuo una edad aleatoria X que indica el instante de entrada en el estudio, y un tiempo Y de fallo o censura. Como en el caso de datos censurados a la derecha, se define t 1 < t 2 <... < t k, como los diferentes tiempos de fallo, siendo d j el número de fallos en el instante t j. Las demás cantidades necesarias para calcular los estadísticos en el caso de censura a la derecha (Kaplan-Meier o Nelson-Aalen) consisten en el número de individuos en riesgo inmediatamente antes del instante t j, llamémosle r j. En el caso de censura a la derecha r j coincide con el número de individuos que están en estudio en el instante 0 y que tienen un tiempo de participación de al menos t j. Para los datos truncados a la izquierda, redefinimos estas cantidades t r como el número de individuos que entraron en estudio antes del tiempo t j y que tienen un tiempo de participación de al menos t j, esto es, es el número de individuos i, que verifican que su tiempo de fallo t i es tal que x j < t i < t j. Usando esta nueva definición de r j, se puede obtener los estimadores de la función de fiabilidad (por ejemplo) para el caso de datos truncados. Sin embargo, hay que tener cuidado con las interpretaciones de esos estimadores. Por ejemplo, el estimador producto límite de la función de supervivencia (Turnbull) en el tiempo t es ahora un estimador de la supervivencia por encima de t, condicionado a la supervivencia al menor de los tiempos de entrada X. Es decir, estimamos P(T > t/t X) II.56

86 Capítulo II. Fundamentos Teóricos De modo similar, el estadístico de Nelson- Aalen estima la integral de la función de riesgo en el intervalo (X, t) Estimador de Turnbull Se define el estimador de la función de fiabilidad o de supervivencia S(t) = R(t) para el modelo de truncamiento a la izquierda y censura a la derecha mediante la siguiente expresión: Ŝ t n 1 n Y i t, i 1 di 1 1 n i 1 1 i1 ri j1 X j Yi Yj Donde d i representa el número de fallos en el instante Y i y r i es el número de individuos en riesgo inmediatamente antes de ese mismo instante. Estas cantidades se calculan como se indica en la expresión anterior. Siendo el estimador no paramétrico de máxima verosimilitud de S(t) = R(t) bajo este esquema muestral. Es importante observar que el estimador de Turnbull en ausencia de truncamiento coincide con el estimador de Kaplan-Meier y en ausencia de censura se reduce al estimador de Linden-Bell. Cuando no hay censura ni truncamiento el estimador coincide con la función empírica de distribución (FES) El estimador de Turnbull, puede presentar serios problemas en el caso de muestras pequeñas o grandes muestras con pocos valores truncados iniciales. Puede ocurrir que d i = r i en algún y i aunque éste no sea el estadístico de mayor orden de la serie y 1, y 2,..., y n. En ese caso ˆR t S ˆ t, para t > y i independientemente de las observaciones que haya después, es decir aunque estemos observando supervivencias y fallos después de este punto. Claramente esta situación no es satisfactoria y es un problema exclusivamente introducido por el caso de truncamiento, que puede inducir pocos casos de individuos en riesgo en la cola de la izquierda Estimador de Nelson-Aalen Extendido (NAE) El estimador de Nelson-Aalen extendido para la función de supervivencia en el caso de truncamiento a la izquierda y censura a la derecha corrige el sesgo producido por la subestimación de la supervivencia que se ha indicado. En presencia de censura a la derecha, se estima la función de riesgo acumulada H(t) mediante la expresión: H t 1 n Yi t, i 1 n i1 j 1 X Y Y 1 j i j que resulta en el estimador de Nelson para la función de supervivencia en la forma: R t S t e H t II.57

87 Capítulo II. Fundamentos Teóricos Este estimador es conocido como estimador de Nelson-Aalen o estimador de Breslow. Este estimador se recomienda como alternativa al estimador no paramétrico de máxima verosimilitud (NPMLE) dado que el anterior tiene el menor error cuadrático medio con datos censurados cuando la verdadera probabilidad de supervivencia sea al menos 0.2. Este estimador es extendido para muestras truncadas a la izquierda redefiniendo el número de individuos en riesgo que ahora se obtiene como: n ri 1 j1 X j Yi Yj es decir, introducimos en el cálculo de esta cantidad la condición dada por la variable truncamiento. Este estimador es denominado Estimador de Nelson-Aalen Extendido, y es recomendado frente al estimador NPMLE, porque soluciona el problema de subestimación dado por este último cuando hay truncamiento. Un caso extremo sería cuando d i = r i, lo que llevaría a S t 0 1 En cambio, Ry Sy e ˆR t ˆ para todo t > y 1. En general, como: R t S t Rˆ t S ˆ t, el problema de subestimación queda bastante "aliviado, aunque no completamente solucionado. Además, este estimador tiene propiedades asintóticas similares al estimador NPMLE, siempre que T tenga distribución continua. En resumen, el estimador de Nelson-Aalen extendido adopta la siguiente forma, para estimar el riesgo acumulado: H e t 1 n Yi t, i 1 di n i1 yi t r i j1 X Y Y Y esta misma expresión es la que se utiliza para estimar la función de supervivencia o de fiabilidad a través del estimador: 1 j i j He t Re t Se t e Comparación de Funciones de Fiabilidad Cuando se desea comparar la supervivencia de dos o más grupos de individuos puede utilizarse un test estadístico global, que responda a la pregunta: Todos los grupos presentan la misma supervivencia? Si el p-valor asociado a ese test es pequeño, lo que nos permite suponer que no todos los grupos son iguales, hay que plantearse una nueva pregunta: Qué grupos son distintos? Para responder a esa pregunta debemos realizar todas las comparaciones dos a dos, con un test estadístico apropiado, de modo que se pueda inferir, si las diferencias observadas por cada dos curvas de supervivencia pueden ser explicadas o no por el azar. II.58

88 Capítulo II. Fundamentos Teóricos Una amplia variedad de contrastes no paramétricos, para comparar la igualdad de dos o más funciones de fiabilidad con datos censurados. Los más utilizados son: El test de Log Rank, (también llamado test de riesgos proporcionales) es muy potente para detectar diferencias cuando los logaritmos de las curvas de supervivencia son proporcionales (lo que es equivalente a decir que los riesgos son proporcionales). Sin embargo, si las curvas de supervivencia se cortan o se cruzan, el test Log Rank tiene problemas para detectar diferencias. En esos casos es más útil el test de Breslow, (también llamado test de Gehan o test de Wilcoxon generalizado), que hace énfasis, de forma especial, en detectar diferencias cuando las curvas se cruzan al principio; por lo cual, este test no resulta adecuado para detectar diferencias a largo plazo. Un test intermedio entre los dos anteriores es el test de Tarone-Ware. La mayor parte de estos contrastes, son aproximaciones con grandes muestras a la distribución chi-cuadrado, con el supuesto de que la censura y el tiempo de fallo son variables aleatorias independientes. En relación al estudio de la potencia de estos contrastes, en distintas situaciones (con pequeñas muestras, cuando el fallo ocurre pocas veces, etc.). Cuando se introduce otra variable que define estratos, las comparaciones que se estudian son las que se basen en los factores o grupos definidos por los estratos existentes. Es el caso que se presenta, por ejemplo, cuando se compara el efecto de dos métodos de fabricación sobre tres líneas de producción. Los anteriores contrastes sirven para comparar las hipótesis de la forma: H 0 : R 1(t) = R 2(t) =... = R r(t) Frente a la alternativa: H 1 : R l(t) R l (t) para todo t > 0 y para al menos un par de poblaciones l, l' diferentes. Si t 1 < t 2 <... < t k son k tiempos de la muestra formada por la unión de los individuos de las r muestras. Si además suponemos que, en la muestra j (j = 1,...,r), ocurren d ij fallos en t i(i = 1,...,k) y que n ij están en riesgo en el momento anterior a t i. Entonces, se definen d i r d y j1 ij n i r n j1 ij como el total de fallos y el total de unidades en riesgo respectivamente en las r poblaciones en el instante t i(i = 1,...,k). De modo que, para la j-ésima población el estadístico z j(t) queda bien definido por la suma ponderada: k di z j t w t 1 i 1 i dij nij j,,r ni Que corresponde a las diferencias entre el número observado de sucesos y su número esperado, bajo la hipótesis nula en la muestra j-ésima; donde la función peso w(t i) que aparece en z j(t) es II.59

89 Capítulo II. Fundamentos Teóricos compartida por todos los r grupos y es la que regula la potencia de los distintos contrastes anteriormente mencionados (Log Rank, Breslow, etc.) Las z j(t), así definidas son la base del estadístico de contraste de las hipótesis anteriormente referenciadas y que viene dado por la forma cuadrática: Donde z t,,z t z t,,z t r1 1 r1 1 es la matriz inversa de varianzas-covarianzas de las componentes seleccionadas. Si la hipótesis nula es cierta, este estadístico debe seguir una distribución ji-cuadrado con r - 1 grados de libertad Estimación Paramétrica Otra filosofía de estimación seria la estimación paramétrica que se caracteriza en suponer que la función puede modelarse por una distribución concreta, que depende de un número finito de parámetros que será necesario estimar a partir de muestras de datos reales o simulados. Debido a que los valores observados en este tipo de problemas (tiempos de fallo, niveles de degradación, resistencia de materiales, número de eventos (fallos) en un periodo etc. ) son positivos, la modelización usualmente supone una distribución conocida. Así, es común el empleo de distribuciones de probabilidad como la exponencial, lognormal, Weibull, de valores extremos, Gamma, o Poisson (ésta última para el número de fallos). Existen también modelos paramétricos específicos, como la relación de Arrhenius, que permiten modelar procesos donde la duración de un material depende de la temperatura, que son usados en problemas de pruebas aceleradas. La estimación paramétrica se inicia con la realización del método grafico donde se identificara gráficamente un modelo teórico, procediendo a continuación con la estimación analítica puntual de los parámetros de la distribución elegida. El método consiste en estimar, por métodos robustos (máxima verosimilitud, momentos, mínimos cuadrados, etc.), los parámetros característicos de la distribución, y usar su normalidad asintótica para realizar la estimación por intervalos y los contrastes de hipótesis del caso Estimación Gráfica El primer método y el más sencillo se designa frecuentemente como el método gráfico, la identificación gráfica de los datos tienen por objetivo estudiar si los datos siguen un determinado modelo o no. Las técnicas de estadística descriptiva que se emplean habitualmente en la mayor parte de las áreas: Histogramas, diagramas de tallos y hojas, Box-plots, etc., no se pueden utilizar en fiabilidad debido al problema de la censura. Por ello es preciso utilizar una serie de técnicas específicas II.60

90 Capítulo II. Fundamentos Teóricos que se basan en la estimación de la función de distribución. Si los datos son completos, la función de distribución de probabilidad se estima de forma inmediata. Si son censurados, se usaran los gráficos de riesgo como la alternativa a los gráficos de probabilidad cuando los datos están censurados Estimación con Datos no Censurados Los gráficos de probabilidad constituyen un método gráfico para tratar de buscar una distribución teórica (exponencial, Weibull, Gamma, etc.) que se ajuste bien a las observaciones no censuradas. Lo que se pretende con un gráfico de probabilidad es comparar una función de distribución teórica (f.d. teórica) con la función de distribución empírica (f.d. empírica) que se obtiene a partir de las observaciones no censuradas. Un gráfico de probabilidad muestra dos gráficos superpuestos: El de la función de distribución F(t) asociada a una determinada distribución teórica (f.d. teórica) El de una nube de puntos superpuesta a la f.d. teórica. Los puntos de esta nube representan estimaciones puntuales (y no paramétricas) de la función de distribución asociada a las observaciones de los tiempos de fallo T (f.d. empírica) A los gráficos que comparan diferencias entre la distribución de probabilidad de una población de la que se ha extraído una muestra aleatoria y una distribución teórica o cuando se comparan la distribución de dos conjuntos de datos se les denomina gráficos Q-Q ("Q" viene de cuantil) o gráfico Cuantil-Cuantil. A fin de facilitar la comparación visual entre ambas funciones de distribución (teórica y empírica), se suelen emplear transformaciones de las variables t y F(t) de forma que la f.d. teórica esté linealizada (i.e., la representación gráfica de la misma sea una recta). Evidentemente, cuanto más se aproxime la nube de puntos (f.d. empírica) a la recta (f.d. teórica), tanto mejor será el ajuste. El gráfico de probabilidad permite pues descartar visualmente aquellas distribuciones teóricas que, claramente, no ajustan bien a los datos, así como seleccionar otras distribuciones que, al menos en apariencia, puedan proporcionar buenos ajustes. En todo caso, siempre será necesario validar la bondad del ajuste utilizando alguna técnica más objetiva que la simple inspección visual como, por ejemplo, los contrastes de hipótesis sobre la bondad del ajuste. Por tanto, la Identificación gráfica de los datos se realizara de la manera siguiente: Ordenar en forma ascendente los rangos de tiempos de fallos T. Elección del modelo teórico y linealización de una distribución (esto implica utilizar uno u otro tipo de papel probabilístico) II.61

91 Capítulo II. Fundamentos Teóricos Representación de los datos en el papel de probabilidad del modelo teórico hasta que formen una línea recta, en caso contrario, volver al punto 2 y utilizar otra distribución. Estimación de los parámetros del modelo a partir del gráfico Linealización de una Distribución. El proceso de linealización de la f.d. asociada a una distribución consiste en encontrar las transformaciones g 1 y g 2 adecuadas para las variables t y F(t) de modo que al representar y = g 2(F(t)) vs. x = g 1(t) se obtenga una recta Linealización de la f.d. Asociada a una Distribución Exponencial La f.d. asociada a una distribución exponencial viene dada por la expresión siguiente: F(t) = 1 - exp {-t/η} donde η > 0 (escala) es el parámetro que define la distribución. Esta función puede ser linealizada (i.e., puesta de la forma: y = a + bx) como sigue: F(t) = 1 - exp {-t/η} ln (1 - F(t)) =ln (exp {-t/η} ln (1 - F(t)) = -(t/η) - ln (1 - F(t)) = t/η Haciendo el doble cambio de variable se tendrían las transformaciones a emplear para lograr su linealización: Es posible expresar la f.d. anterior como: y = - ln (1 - F(t)) y x = t y = (1/η) x y donde el parámetro de la distribución exponencial es igual a la pendiente de la recta: 1 x tang y Linealización de la f.d. Asociada a una Distribución Weibull La f.d. asociada a una distribución Weibull de dos parámetros (β, η) viene dada por la expresión: F(t) = 1 exp{-(t/η) β } donde β > 0 (forma) y η > 0 (escala) son los dos parámetros que definen la distribución. Esta función puede ser linealizada (i.e., puesta de la forma: y = a + bx) como sigue: F(t) = 1 exp{-(t/η) β } ln(1-f(t)) = ln(exp{-(t/η) β }) ln(1-f(t)) = -(t/η) β ln(-ln(1-f(t))) = β ln(t/η) ln(ln(1-f(t)) -1 ) = β ln(t) - β ln(η) Haciendo el doble cambio de variable, se tendrían las transformaciones a emplear para lograr su linealización: y = ln(ln(1-f(t)) -1 ) x = ln(t) II.62

92 Capítulo II. Fundamentos Teóricos Se puede por tanto expresar la ecuación anterior como y = β x - β ln(η). Por tanto, se concluye que lnln[1/(1-f(t))] es una función lineal de ln(t), el parámetro de forma, β, es la pendiente de la recta y el parámetro de escala η, está en función de la intersección de la recta para t = 0 y del parámetro de forma β, por lo tanto: x tang y El gráfico probabilístico de Weibull se basa en esta relación lineal y una manera fácil de comprobar si unos datos se ajustan al modelo de Weibull es hacer el gráfico lnln[1/(1 - F(t))] versus ln(t), donde t son los datos ordenados y R(t) = 1 - F(t) es la función de fiabilidad empírica, y evalúa hasta qué punto la relación lineal es factible Construcción de Plantillas Especiales para Gráficos de Probabilidad La construcción del papel probabilístico o las plantillas de gráfico de probabilidad asociadas a una distribución determinada se realizan cuando son conocidas las transformaciones g 1 y g 2 que linealizan una determinada f.d. teórica asociada a una distribución, ya que es posible utilizar sus inversas para obtener t y F(t) en función de x e y respectivamente, i.e.: t = g 1-1 (x) y F(t) = g 2-1 (y). Con ello, resulta inmediato volver a etiquetar los ejes x e y a fin de que muestren los correspondientes valores de t y F(t). Ello permitirá representar, sobre estos ejes transformados, directamente los valores t y F(t). Plantilla especial para gráfico de probabilidad de Weibull En el caso de una distribución Weibull biparamétrica (β, η), se vio que las transformaciones a aplicar serian: y = ln(ln(1-f(t)) -1 ) y x = ln(t) Deshaciendo dichas transformaciones se obtiene que: F(t) = 1 - (exp {exp {y}}) -1 y t = exp {x} Por tanto, bastaría con utilizar dichas transformaciones inversas para volver a etiquetar los ejes indicados anteriormente. El resultado sería una plantilla como la indicada en la figura XX, sobre la cual se representará directamente (sin transformaciones adicionales) F(t) vs. t: II.63

93 Capítulo II. Fundamentos Teóricos Figura 43. Plantilla para Gráfico de Probabilidad Weibull Estimación de la f.d. Empírica. Una vez seleccionada la distribución teórica que se usará para tratar de ajustar las observaciones, se procederá a representar la nube de puntos sobre la correspondiente plantilla de gráfico de probabilidad. Cada uno de los puntos t,fˆ t i i, i = 1,2,..., n, representará a cada uno de los n tiempos de fallo observados, t i (eje x), junto con el correspondiente valor estimado de la f.d. experimental, ˆF t i (eje y). El diagrama de probabilidad permitirá apreciar visualmente si la nube de puntos sigue un patrón aproximadamente lineal (lo cual favorecería la hipótesis de que la distribución teórica seleccionada se ajusta bien a las observaciones) o, por el contrario, si ésta sigue un patrón muy distinto del lineal (lo cual permitiría descartar la distribución teórica seleccionada a efectos de explicar el comportamiento de las observaciones). A continuación se explica un método (no es el único, aunque sí uno de los más utilizados) que permite obtener estimaciones puntuales de la f.d. empírica, partir de las observaciones, t i. ˆF t i, a II.64

94 Capítulo II. Fundamentos Teóricos Estimación Puntual (no paramétrica) de la f.d. empírica ˆF t Sean t 1. t 2 t 3... t n son los n tiempos de fallo observados ordenados de menor a mayor. Para cada punto (x i, y i) con i = 1,2,..., n, el valor x i vendrá dado por la i-ésima observación t i (instante en que se ha producido el fallo i-ésimo). Para estimar el valor de la coordenada y i, la cual representará el valor estimado de ˆF t i, existe cierta dificultad respecto a la forma adecuada para su estimación, frente a ello han surgido diferentes propuestas, todas ellas requieren del ordenamiento creciente previo de los datos de falla y la asignación de su respectiva posición i + dentro de este ordenamiento. donde: i Sugiere la existencia de un limite para t n los tiempos de fallos"f t 1" it Solución rápida al problema anterior n 1 it Aproximación al Rango medio n 1 ˆ F t ˆ i t 0. 5 Fˆ ti Fˆ t i1 1 / 2, FAP simétrica n Aproximación de Bernard al Rango mediano i t 0. 3 n n k nk n MR 1 MR ki k i nj r j 1 Estimador de Kaplan Meier j1 nj i i = número de orden de observación n = número total de observaciones Algunos autores [ZZ] indican la propuesta más acertada para el valor estimado f.d. empírica, mediante la relación con la cantidad del número de observaciones. Fˆ t it n 50 n it ˆ 20 n 50 n 1 i t 0. 3 n 20 n 0. 4 ˆF t i Otros autores [1, 24] indican que la aproximación de Bernard al rango mediano es el método que proporciona el mejor rendimiento. Sin embargo, es posible usar cualquiera de los métodos presentados o cualquier otro de los reportados en la literatura. La existencia de programas estadísticos (como MINITAB, SPSS, etc.) son capaces de realizar los cálculos anteriores, automatizando así el proceso de construcción de estos gráficos de probabilidad. II.65

95 Capítulo II. Fundamentos Teóricos Cuando se tengan ya representados todos los puntos (x i, y i) asociados a las observaciones, se deberá determinar visualmente una recta de manera que las desviaciones entre los datos y la recta sean lo menores posible y decidir si el ajuste es suficiente, la cual corresponderá a la f.d. de la distribución elegida cuyos valores de los parámetros mejor se ajusten gráficamente a las observaciones Identificación Grafica de la Distribución de Ajuste Si los puntos representados en el gráfico están suficientemente próximos a la recta, se dirá que siguen un patrón bastante lineal, se podría dar por bueno el ajuste de las observaciones mediante la distribución teórica elegida (resulta conveniente prestar atención especial a los valores de los extremos). Como se observa en la figura 44, a modo de ejemplo, la distribución que mejor se ajusta a los datos es la lognormal (base e). Figura 44. Comparación Gráfica entre Distribuciones Estimación con Datos Censurados. Si hay censura las técnicas descriptivas básicas no servirían. No se pueden realizar histogramas si no se conoce la longitud final de las observaciones. El proceso de para realizar un gráfico de esas características es el mismo, pero se tendrá que estimar la función de distribución (o de supervivencia que sería S(t)=1 F(t)) con algún método alternativo. Los gráficos de riesgo son la alternativa a los gráficos de probabilidad cuando los datos están censurados. II.66

96 Capítulo II. Fundamentos Teóricos La función de riesgo acumulada, al igual que la función de riesgo, no es una probabilidad. Sin embargo, también es una medida del riesgo: cuanto mayor es el valor de H(t), mayor es el riesgo de fallo en el tiempo t Construcción del Gráfico de Riesgo (Hazard Plots). Los pasos para la construcción del grafico de riesgo acumulado serían los siguientes: 1. Ordenar los n datos de menor a mayor, teniendo en cuenta tanto los tiempos de fallo observados como los datos censurados, marcando éstos con el signo Asignar el rango decreciente a los datos: al valor menor le corresponderá rango n, al segundo rango n-1, y así sucesivamente. 3. Calcular el valor de riesgo empírico, únicamente para los tiempos de fallo observados: h n = 1/rango decreciente i n k1 4. Calcular el riesgo acumulado H i h k n para cada fallo. 5. Para cada tiempo de fallo observado dibujar el valor transformado de (t i) (i.e. Weibull: ln(t i)) en el eje de abscisas y el valor transformado de H n(i) (i.e. Weibull: ln(h n(i))) en el eje de ordenadas. Los datos censurados no aparecen en el gráfico. 6. Determinar una recta de manera que las desviaciones entre los datos y la recta sean lo menores posible y decidir si el ajuste es suficiente, la cual corresponderá a la función de riesgo de la distribución elegida. 7. Estimar los parámetros gráficamente a partir de la expresión linealizada. (i.e. Weibull: ln(h(t)) = β ln(t) - βln(η)) Estimación Empírica de Riesgo Acumulado para Weibull Cuando la muestra es completa, se dispondrán de n tiempos de fallo y si la muestra presenta censura (i.e. censura tipo II), solo dispondremos de r tiempos observados y n - r tiempos censurados. Por tanto, un estudio completo sería un caso particular del estudio censurado donde se considera que r = n. Supongamos que se dispone de r tiempos t 1, t 2,..., t r ordenados de menor a mayor t (1) t (2)... t (r). El estimador empírico de la función de distribución seria: ˆF t nº observaciones t n con t t (r). La función de riesgo acumulada de una distribución, H(t), se define como la integral de la función de riesgo, es decir: Ht htdt t 0 II.67

97 Capítulo II. Fundamentos Teóricos La función de riesgo acumulada de un modelo de Weibull biparamétrico seria: t t 0 H t y la función de fiabilidad o supervivencia R(t): R t 1 F t e t 0 t Aplicando el logaritmo neperiano en la ecuación función de fiabilidad R(t), considerando que la función de distribución F(t) está relacionada con la función de riesgo acumulada H(t) mediante la siguiente expresión H(t) = - ln(1 - F(t)), deducimos directamente el estimador de la tasa de fallo acumulada seria: Hˆ t ln 1 Fˆ t Dado que estamos considerando una muestra censurada, no podremos estimar F(t) y H(t) de forma completa, sino que solo podremos dar estimaciones basándonos en los r datos no censurados. Definimos ahora el concepto de rango de T (i) como el número de elementos de la muestra menores o iguales que T (i) y se denota rango (T (i)). El estimador de la función de distribución empírico tiene expresiones muy sencillas si se evalúa en la ordenada (ya explicadas en el apartado i Estimación puntual (no paramétrica) de la f.d. empírica ˆF t ): En la práctica podrían ser: rango ti ˆF T i i 1,,r n i ˆ i ˆ i i 0 3 F T o F T. n1 n 0. 4 y el estimador de la tasa de fallo acumulada seria: Hˆ Ti ln 1 Fˆ ti i 1,,r Esta función representa el porcentaje empírico de fallos ocurridos ante el tiempo de fallo correspondiente al rango i-ésimo, por lo que la tasa de fallo acumulada en la muestra ordenada será: n i Ĥ Ti ln i 1,,r n Los pares de puntos en los ejes de coordenadas a representar serian: lnt i, lnhˆ ti i 1,,n i 1,,r Se procede a realizar la recta de ajuste para comprobar la existencia de relación lineal y la estimación de los parámetros de escala y forma η y β, respectivamente. Para ello consideremos que II.68

98 Capítulo II. Fundamentos Teóricos la recta ajustada en el gráfico es y ax ˆ bˆ donde â es la pendiente de la recta y ˆb es una constante. Considerando que ln(h(t)) = β ln(t) - βln(η), se tendrá: y at ˆ bˆ = ln(h(t)) = β ln(t) - βln(η) y las estimaciones de los parámetros serian ˆ â, con lo que la estimación del parámetro de forma, β, que coincide con la pendiente de la recta ajustada y x tang y y la estimación del parámetro de escala (η) cuando H(t) = 1, η = x Estimación Puntual. La Estimación Puntual es el método más elemental, basado en asignar los valores obtenidos de la muestra (estadísticos) a toda la población (parámetros). Los métodos de Estimación Puntual consisten en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado (ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima) Si bien hay varios métodos para determinar el estimador, el más utilizado en la práctica es el llamado método de estimación por Máxima Verosimilitud Estimación por Mínimos Cuadrados (Least Squares Method (LSM)) Esta técnica de estimación es conocida como el método de mínimos cuadrados consiste en calcular los parámetros de la distribución seleccionada utilizando la minimización de la suma de los cuadrados de los errores. Se aplica con frecuencia en problemas de ingeniería y matemáticas que a menudo no se considera como un problema de estimación. Partiendo de una muestra de valores de X e Y medidos sobre n individuos (x 1, y 1), (x 2, y 2),...,(x n, y n), se desea estimar valores en Y según el modelo Ŷ = a + bx, donde a y b son parámetros desconocidos. Se ha de encontrar de entre todas las rectas la que mejor se ajuste a los datos observados, es decir, buscamos aquellos valores de a y b que hagan mínimos los errores de estimación. Para un valor x i, el modelo estima un valor en Y igual a ŷ i = a + bx i y el valor observado en Y es igual a y i, con lo cual el error de estimación en ese caso vendría dado por є i = y i - ŷ i = y i - (a + bx i). Entonces se tomara como estimaciones de a y b, que notamos por â y ˆb, aquellos valores que hagan mínima la suma de los errores al cuadrado, que viene dada por: n n 2 i i i i1 i1 2 SSE y abx II.69

99 Capítulo II. Fundamentos Teóricos La solución se obtiene por el mecanismo habitual, derivando SSE con respecto a a y b e igualando a 0. Los estimadores resultantes serian: Siendo: n SS ˆb SS xy xx â y bx ˆ SS x x y y x y nxy xy i i i i i1 i1 n SS x x x nx xx i i i1 i1 n A la recta resultante Yˆ aˆ bx ˆ se le llama recta de regresión lineal de Y sobre X. n Estimación de Parámetros para la Distribución Exponencial La función de distribución acumulada viene dada por: η. F(t) = 1 - exp {-t/η} Aplicando logaritmos naturales en ambos lados, se tiene: La pendiente de la línea producida por y 1 t ln1 F t ln 1 F t i 1 ln 1 F ti x y i i t representan una estimación de Realizando el método de mínimos cuadrados en la forma que y = b x, es posible expresar la f.d. anterior como y = (1/η) x, obteniendo: 1 b ˆ n 2 x i1 i n x i 1 iyi Estimación de Parámetros para la Distribución Weibull Para la estimación de los parámetros de Weibull, considerando su ecuación linealizada: 1 ln ln ln t ln 1 F t La forma de la línea de regresión en la forma que y i = a+ bx i es obtenida considerando: y i 1 ln ln 1 ˆF ti II.70

100 Capítulo II. Fundamentos Teóricos donde i ˆF t es el valor estimado f.d. empírica indicado en la sección y xi lnti. Por tanto: y b ˆ n i1 i n i 1 x x y y x i x a ˆ ln ˆ y bx i 2 Después de obtener ˆ, se aplica a la ecuación anterior para estimar ˆ Estimación por Máxima Verosimilitud (Maximum Likelihood Estimator (MLE)) El método de Máxima Verosimilitud, Maximum Likelihood, tiene la propiedad de seleccionar como estimación, el valor del parámetro que maximiza el valor de la probabilidad de la muestra aleatoria observada. El método consiste en encontrar el valor del parámetro que maximiza el valor de la función de verosimilitud. Este método es muy utilizado en la práctica debido a que proporciona estimadores consistentes, asintóticamente eficientes, insesgados y normalmente distribuidos para grandes muestras. Se expondrá una explicación de los métodos de estimación de máxima verosimilitud tanto para muestras completas como para muestras con censura para la distribución Exponencial (η) y para la distribución Weibull (β, η)). En el resto de los casos, se haría de forma similar para obtener los estimadores correspondientes Estimación de Parámetros en Observaciones Completas Supongamos que t 1,..., t n es una muestra aleatoria simple T de n elementos y la muestra ordenada t (1),...,t (n), los cuales proceden de una determinada población con función de densidad f θ(t), donde θ = (θ 1,...,θ k)' es un vector de parámetros desconocidos que toman valores en un conjunto Ω. La función de verosimilitud para θ, que denotaremos por L(θ) seria: n i1 L f t La función de verosimilitud L(θ) se puede interpretar como una medida de lo probable que son las observaciones registradas bajo el supuesto de que éstas provienen de la distribución teórica especificada. Así, los valores de θ para los cuales L(θ) es relativamente grande serán más probables que los valores de θ para los cuales la probabilidad de las observaciones es relativamente pequeña. Se tratará pues de hallar (si existe) un estimador de máxima verosimilitud, i.e., un valor del parámetro θ que maximice la función L(θ). i II.71

101 Capítulo II. Fundamentos Teóricos Si ˆ es un elemento de Ω donde la función de verosimilitud L(θ) alcanza un máximo, entonces ˆ se denomina estimador de máxima verosimilitud del parámetro θ, que en muchos modelos de distribución existe y es único. Es más sencillo trabajar con la función logarítmica de verosimilitud, que también alcanza un máximo en ˆ. Esta función de log-verosimilitud tiene la expresión: n i l ln L ln f t En la mayoría de las ocasiones, el estimador de máxima verosimilitud ˆ se obtiene resolviendo las i1 k ecuaciones: l 0 i 1,,k i donde θ i es la i-ésima componente del vector de parámetros θ = (θ 1,...,θ k)' Estimación de Parámetros para la Distribución Exponencial Dadas n observaciones independientes, t 1, t 2,..., t n, de una variable aleatoria T que se distribuye según una exponencial de media η desconocida, exp(η), con función de densidad f(t) = 1/η exp {-t/η}, donde η > 0 (escala) es el parámetro que define la distribución. En este caso, la función de máxima verosimilitud vendrá dada por: L exp exp exp exp t n t t2 tn n i i1 Consideraremos la función logarítmica de verosimilitud y realizando la derivada respecto a η de la expresión e igualando el resultado a cero, se obtendrá el estimador de máxima verosimilitud de η: Por tanto, se ha de resolver la ecuación: 1 1 ln L nln ti n ti i 1 i 1 n i1 n n t i 0 de donde se obtiene el estimador de máxima verosimilitud de η: n ˆ n t i i1 siendo ti el tiempo total de funcionamiento acumulado para las n observaciones. i1 n n II.72

102 Capítulo II. Fundamentos Teóricos Estimación de Parámetros para la Distribución Weibull Dadas n observaciones independientes, t 1, t 2,..., t n, de una variable aleatoria T que se distribuye según una función Weibull (β, η, γ), con función de densidad: 1 t t f t e t 0 donde β, η > 0 y t γ 0 (forma, escala y origen) son los parámetros que define la distribución. En este caso, considerando el parámetro de origen γ = 0, la función de máxima verosimilitud vendrá dada por: n 1 t i ti L, e i1 Tomando logaritmos, diferenciando con respecto a β y η e igualando a cero, se obtienen las ecuaciones de estimación: n n 1 lnti ti lnti i1 i1 lnl n 0 lnl n 1 2 ti 0 i 1 Eliminando η entre las dos ecuaciones y simplificado, se obtiene: n i1 n t i1 ˆ i lnti n ˆ i t n 1 1 lnti 0 ˆ n Aunque no es posible obtener una solución analíticamente, podremos calcular i1 ˆ ˆ utilizando métodos iterativos numéricos como el método de Newton-Raphson. Una vez estimado el parámetro de forma ˆ y usando la ecuación: lnl n 1 2 ti 0 i 1 se obtendría una estimación para el parámetro de escala η: ˆ n i1 n ˆ t i n k Estimación de Parámetros en Observaciones Censuradas Para obtener observaciones sobre los tiempos de fallo de un dispositivo, se suelen llevar a cabo tests de vida. Realizar un test de vida sobre un tipo de dispositivo concreto consiste en estudiar la II.73

103 Capítulo II. Fundamentos Teóricos evolución temporal -bajo unas determinadas condiciones de funcionamiento- de una muestra de dichos dispositivos, registrando el instante en que falla cada uno de los componentes de la muestra. En general, hay dos tipos de tests de vida, los tests con re-emplazamiento -i.e.: aquellos en los que, de forma inmediata, los componentes que fallan son reemplazados -, y los tests sin re-emplazamiento. Al realizar un test de vida de duración determinada, es frecuente que éste finalice sin haber encontrado fallados todos los dispositivos de la muestra, lo que dará lugar a la aparición de observaciones censuradas. En fiabilidad, el tipo de censura más habitual es censura por la derecha, por lo que la discusión teórica del tema se centrará en este tipo de censura Estimación de Parámetros para la Distribución Exponencial Dadas n observaciones independientes, t 1, t 2,..., t n, de una variable aleatoria T con r tiempos de vida, t (1),..., t (r). Si t 1,...,t n tienen distribución continua y son independientes e idénticamente distribuidos con función de densidad f(t) = 1/η exp {-t/η}, entonces la función de verosimilitud para una muestra con censura por derecha - tipo II (se analiza este tipo por ser el de mayor relevancia) vendrá dada por expresión: n! 1 nr! r r f t f t R t donde r es el número de datos no censurados de la muestra. En el caso de la distribución exponencial Exp(η), la función de verosimilitud con censura tipo II seria: con lo que la función de log-verosimilitud seria: nr n n! 1 ti tr L exp exp r n r! i1 nr n! 1 1 ti lnl ln r ln r r n r t r n r! i 1 y el estimador de máxima verosimilitud del parámetro η se obtiene calculando la derivada de la anterior expresión respecto a η e igualando a cero, por lo que el estimador seria: ˆ r i1 t nr t i r El estimador de máxima verosimilitud para η de forma genérica seria: r L ˆ r siendo r el número tiempos de vida (fallos) observados en el test y L el tiempo total de funcionamiento acumulado, el cual vendrá dado para los diferentes tipos de censura por: II.74

104 Capítulo II. Fundamentos Teóricos L nt si se trata de un test con re-emplazamiento y la censura es de tipo I (i.e., por 0 tiempo), siendo t 0 el instante en que finaliza el test. r L t nr t si se trata de un test sin re-emplazamiento y la censura es de tipo I, i 0 i1 siendo t 0 el instante en que finaliza el test. Lnt si se trata de un test con re-emplazamiento y la censura es de tipo II (i.e., por r número de errores), siendo t r una variable aleatoria que representa el instante en que falla la r -ésima observación r i r si se trata de un test sin re-emplazamiento y la censura es de tipo II, i1 L t n r t siendo t r una variable aleatoria que representa el instante en que falla la r -ésima observación Estimación de Parámetros para la Distribución Weibull Dadas n observaciones independientes, t 1, t 2,..., t n, de una variable aleatoria T con r tiempos de vida, t (1),..., t (r). Si t 1,...,t n tienen distribución continua y son independientes e idénticamente distribuidos con función de densidad de Weibull (β, η, γ), vendrá dada por: 1 t t f t e t 0 donde β, η > 0 y t γ 0 (forma, escala y origen) son los parámetros que define la distribución. En este caso, considerando el parámetro de origen γ = 0, la función de máxima verosimilitud para una muestra con censura por derecha - tipo II (se analiza este tipo por ser el de mayor relevancia) se indicara por la expresión genérica: n! 1 nr! r r f t f t R t donde r es el número de datos no censurados de la muestra. En el caso de la distribución Weibull (β, η), la función de verosimilitud con censura tipo II seria: nr 1 ti 1 t r r n n! t i t r L, e e n r! i 1 y su función de log-verosimilitud seria: r r n! 1 ti ti tr lnl, ln r ln 1 ln n r n r! i1 i1 El estimador de máxima verosimilitud del parámetro de forma β se obtiene resolviendo la ecuación: nr II.75

105 Capítulo II. Fundamentos Teóricos r i1 ˆ ˆ i i r r r t lnt n r t ln t r i1 i ˆ ˆ r i1 i r t n r T 1 1 lnt 0 ˆ y utilizando esta última, se obtiene que el estimador de máxima verosimilitud del parámetro escala η será: ˆ 1 r ˆ ˆ ˆ i1 t n r t i r Es necesario utilizar métodos iterativos como el Newton-Raphson para obtener las anteriores estimaciones. El estimador de máxima verosimilitud para η de forma genérica seria: r 1 ˆ L ˆ r siendo r el número tiempos de vida (fallos) observados en el test y L el tiempo total de funcionamiento acumulado, el cual vendrá dado para los diferentes tipos de censura de forma similar al indicado anteriormente Estimación por Momentos (Method of Moments (MOM)) Este método consiste en igualar un determinado número de momentos teóricos de la distribución de la población con los correspondientes momentos muéstrales, para obtener una o varias ecuaciones que, resueltas, permitan estimar los parámetros desconocidos de la distribución poblacional Estimación de Parámetros en Observaciones Completas Sea, t 1, t 2,..., t n, es una muestra aleatoria simple T de n elementos, de una distribución con función de densidad f(t; θ 1, θ 2). Para este caso de 2 parámetros, se tomara los dos primeros momentos respecto al origen: 1 n 1 n n i i1 n i1 t t.f t ;, dt t t.f t ;, dt i Por tanto genéricamente un estimador insesgado y estable para el momento al origen k th seria: ˆm k n i1 n t i k 1 2 II.76

106 Capítulo II. Fundamentos Teóricos donde ˆm k representa la estimación de m k Estimación de Parámetros para la Distribución Exponencial En el caso de una distribución exponencial, el único parámetro η es recíproco de la media de la distribución. Por tanto, como la media de la muestra es una estimación de la media de la población, su recíproco es también una estimación de η. Es decir: ˆ n t i i1 lo cual es lo mismo que el estimador de máxima verosimilitud indicado anteriormente. n Estimación de Parámetros para la Distribución Weibull En una distribución de Weibull, con una distribución con función de densidad: los k th momentos respecto al origen serian: 1 t t f t e t 0 donde Γ sería la función Gamma: k 1 b k k 1 s 1 x s x e dx s 0 0 Considerando la expresión anterior de μ k, se puede expresar el primer y segundo momento como: 1 b 1 1 m1 ˆ k 1 2 b m2 ˆ k ˆ k 1 1 Dividiendo m 2 por el cuadrado de m 1, se obtiene una expresión en función de β: ˆ k 2 ˆ k Realizando la raíz cuadrada, se obtiene el coeficiente de variación CV: II.77

107 Capítulo II. Fundamentos Teóricos CV 1 1 A continuación se realizaría una tabla para varios CV usando la expresión de CV para diferentes valores de β. Para la estimación de β y η, es necesario calcular el coeficiente de variación (CV) d de los datos de la muestra. Una vez hecho esto, se compara el (CV) d con el CV utilizando la tabla. El correspondiente estimador de β sería ˆ El parámetro de escala η puede entonces estimarse mediante la siguiente expresión: donde x es la media de los datos. x ˆ 1 1 ˆ ˆ Estimación de Parámetros en Observaciones Censuradas Intuitivamente, no se esperaría que se pudiera utilizar una estrategia de estimación basada en momentos con datos censurados. Se ha sugerido un método heurístico para la construcción de expresiones de estimación basadas en momentos, este se basa en la sustitución del tiempo esperado de recurrencia hacia delante para el resto de vida de las unidades de prueba que todavía no han fallado. El conjunto de datos está integrado por los r tiempos observados de fallo t (i). Añádase a estos valores los n-r valores t (r)+e[t +], para los que se ha demostrado que es independientemente de la distribución de vida. E t Estimación de Parámetros para la Distribución Exponencial Utilizando la expresión general para la distribución exponencial, se tendría que: Aplicando la expresión anterior a los datos exponenciales de vida, se obtendría que: r E t r ˆ n t i n r ˆ t ˆ r t i n r t r n r i1 i1 siendo la solución la misma que la dada en la ecuación de estimación de parámetros en observaciones con censura por derecha - tipo II para máxima verosimilitud: II.78

108 Capítulo II. Fundamentos Teóricos ˆ r i1 t nr t i r r Estimación de Parámetros para la Distribución Weibull Utilizando nuevamente la expresión general para la distribución Weibull, se tendría que: 1 E t La definición correspondiente para la distribución Weibull es un poco más complicada. En este caso, las dos ecuaciones serian: 1 b 1 1 ˆ k ˆ k ˆ k se resuelven simultáneamente para ˆ y ˆ. Para hacer esto, los momentos de la muestra basados en los datos se utilizan en el lado izquierdo de las ecuaciones, y el valor t (r)+e[t +] se utiliza para los puntos de datos censurados. La sustitución daría la expresión: 1 E t se utiliza para que las ecuaciones se expresen en función de las dos estimaciones desconocidas y de los valores de los datos conocidos. El proceso de esta estimación es simple. El lado izquierdo de la expresión para ˆ k ˆ k seria: r r ti n rtr Et ti n rtr Et ˆ n 1 i 1 n i 1 k r ˆ k 1 ti n rtr Et n i1 No obstante, el proceso es abordable y permite el cálculo de expresiones de estimación de momentos, que no podrían obtenerse de otra forma. II.79

109 Capítulo II. Fundamentos Teóricos Estimación de parámetros por Intervalos de Confianza A diferencia de lo que ocurre con la estimación puntual, la estimación por intervalos ofrece información sobre la exactitud de la estimación (i.e., sobre la diferencia entre el valor real y el estimado). Ello es debido a que el intervalo de confianza en su caso ideal debe de tener dos propiedades: que contenga el valor del parámetro objetivo con una alta probabilidad (nivel de confianza) de que esté contenido el verdadero valor del parámetro y además que sea lo más estrecho posible. El intervalo se encuentra en función de las mediciones de la muestra y es por esa razón que varía de manera aleatoria en uno o en ambos de sus extremos. Se definirán los siguientes conceptos Límite de Confianza Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α) 100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente. Valor α También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05. El nivel de significación es un concepto estadístico asociado a la verificación de una hipótesis Estimación General Sean n observaciones independientes, t 1, t 2,..., t n de una muestra aleatoria de una distribución que depende de un parámetro θ. Se supone que existe una función T(t 1, t 2,..., t n, θ) (es decir, una función de la muestra y del parámetro) cuya distribución es conocida y no depende de θ ni de ningún otro parámetro desconocido. Entonces, como la distribución de T es conocida, se pueden hallar dos valores a y b tales que: P( a T(t 1, t 2,..., t n, θ) b ) = 1 - α A partir de esta expresión, si T es una función monótona de θ, es posible despejar θ de la expresión anterior y obtener un intervalo de confianza para θ. La función T(t 1, t 2,..., t n, θ) se denomina pivote Estimación de Intervalo en Observaciones Completas Se verá el caso de la estimación de intervalo de confianza para la media η de una distribución Exponencial. II.80

110 Capítulo II. Fundamentos Teóricos Estimación de Intervalo para la Distribución Exponencial Se supone que t 1, t 2,..., t n es una muestra aleatoria de una distribución exponencial de parámetro η, t i ~ ε(1/η). Se conoce que E(t i) = η, luego la media muestral t i/n es un estimador insesgado y consistente de η. Para obtener un intervalo de confianza para η es necesario recordar que la suma de variable aleatoria exponenciales independientes es una variable aleatoria con distribución Gamma, es decir: n 1 ti n, i1 1 Además si V, y a > 0 entonces 1 av, a. Luego: La función 2 n ti i 1 2 n 2 ti 2n i 1 depende del parámetro de interés y cuya distribución es conocida como permite construir el intervalo de confianza para η. Luego, para cualquier α (0,1): 2 2n o equivalentemente: n P ti 1 2n, 2n, 1 2 i1 2 n n 2ti 2ti i1 i n, 1 2n, 2 2 Luego, un intervalo de 100(1-α)% de confianza para la media η de una distribución Exponencial seria: n 2t 2 n t i i i1 i1, 2 2 2n, 1 2n, 2 2 donde n t es el tiempo total de funcionamiento observado para los n dispositivos considerados i i1 y 2 g es el percentil de orden p en una distribución 2 (Chi-cuadrado) con g grados de libertad p (i.e., es aquel valor que, en una 2 con g grados de libertad, deja a su izquierda un área p) II.81

111 Capítulo II. Fundamentos Teóricos Estimación de Intervalo en Observaciones Censuradas Se analizaran los casos de la estimación de intervalo de confianza para la media η de una distribución Exponencial con censura tipo II y I Estimación de Intervalo para la Distribución Exponencial con Censura Tipo II En el caso de censura de tipo II (por número de fallos), la cantidad 2 n ti i 1 se distribuye según una 2 (Chi-cuadrado) con 2r grados de libertad, lo que permite obtener los correspondientes intervalos de confianza. En efecto, según lo dicho: Equivalente a: n P ti 1 2r, 2r, 1 2 i1 2 n n 2ti 2ti i1 i r, 1 2r, 2 2 con lo que el intervalo buscado para η, a un nivel de confianza (1 α)%, viene dado por: n 2t 2 n t i i i1 i1, 2 2 2r, 1 2r, 2 2 El intervalo anterior es una generalización del visto para el caso de observaciones completas. Ello no es de extrañar si se tiene en cuenta que las observaciones completas se pueden interpretar como un caso particular de observaciones censuradas de tipo II (en concreto, cuando n = r) Estimación de Intervalo para la Distribución Exponencial con Censura Tipo I En el caso de la media η con censura de tipo I (por tiempo), se suele utilizar el siguiente intervalo de confianza: n 2 t 2 i i i1 i r 2, 1 2r, 2 2 n t Estimación por Máxima Verosimilitud Para construir los intervalos de confianza basados en las estimaciones de máxima verosimilitud de los parámetros utilizaremos la inversa de la matriz de varianzas-covarianzas que corresponde con la II.82

112 Capítulo II. Fundamentos Teóricos matriz de información de Fisher, La matriz de información de Fisher para un estimador de máxima verosimilitud ˆ del parámetro θ seria: 2 l ˆ que es una matriz cuadrada con dimensiones k x k. Cada elemento de la matriz es el opuesto de la segunda derivada parcial de la función de log-verosimilitud evaluada posteriormente en los estimadores de máxima verosimilitud del modelo de distribución correspondiente. La inversa de la matriz de información de Fisher seria la matriz de varianzas-covarianzas del vector aleatorio ˆ : Var ˆ 2 l Los elementos diagonales de esta última matriz se corresponden con las varianzas de los estimadores de máxima verosimilitud de cada componente del parámetro. 1 ˆ Estimación de Intervalo para la distribución Weibull Basándose en la teoría general del método de máxima verosimilitud, se puede suponer que T es una variable aleatoria con distribución Weibull (β, η) y que los estimadores de máxima verosimilitud de los parámetros de la distribución, ˆ y ˆ, serán los obtenidos de las expresiones: n i1 n t i1 ˆ i lnti n ˆ i t ˆ 1 1 lnti 0 ˆ n n i1 i1 ˆ t i Entonces se pueden estimar las características de fiabilidad y los intervalos de confianza. Una característica de los estimadores de máxima verosimilitud es que son asintóticamente normales, es decir, que sí ˆ y ˆ son los estimadores de máxima verosimilitud de los parámetros forma y escala de la distribución Weibull (β, η), es decir, para muestras de tamaño grande: donde Var ˆ y ˆ ˆ N, Var ˆ ˆ N, Var ˆ n Var son los elementos diagonales de la matriz inversa de la matriz de información de Fisher evaluada en ˆ y ˆ. Por tanto, las cantidades anteriores estandarizadas serian: II.83

113 Capítulo II. Fundamentos Teóricos ˆ N 0, 1 Var ˆ ˆ Var ˆ N 0, 1 Los intervalos de confianza (1 - α) % bilaterales basados en las expresiones anteriores serian de la forma: ˆ z Var ˆ, ˆ z Var ˆ ˆ z Var ˆ, ˆ z Var ˆ donde z es el cuantil de la distribución normal estándar, que esta tabulado y 2 ˆ Var y ˆ Var son las raíces cuadradas de las estimaciones de los elementos diagonales de la matriz de varianzas-covarianzas. Var ˆ 2 l El cálculo de las varianzas de ˆ y ˆ es complejo, ya que involucra el cálculo de la inversa de la matriz de derivadas segundas del logaritmo de la función de verosimilitud. La mayoría de programas estadísticos sobre fiabilidad disponen de rutinas que calculan estas varianzas. Puede utilizarse 1 ˆ también las siguientes expresiones que dan una aproximación aceptable: Var ˆ ˆ Var ˆ n 2 ˆ ˆ n La estimación de la fiabilidad en un momento t 0, o un percentil de la distribución de Weibull se obtiene mediante un simple cálculo. Si se disponen de los estimadores de máxima verosimilitud ˆ y ˆ, la fiabilidad estimada en t 0 seria: y la estimación del percentil p: R t 0 e ˆ 0 t ˆ 1 ˆ 1 ˆt ˆ p ln p Los estimadores obtenidos de la fiabilidad y del percentil son también máximo verosímiles gracias a la propiedad de invariancia funcional de los estimadores de máxima verosimilitud. II.84

114 Capítulo II. Fundamentos Teóricos Estimación por Mínimos Cuadrados Obtenida la recta de regresión lineal mínimo-cuadráticayˆ aˆ bx ˆ, podemos decir con un (1-α) 100% de confianza que cuando x=x, el valor medio estimado en y se encontraría en el siguiente intervalo: Ŷ t s R 1,n2 2 1 n X X 2 y que cuando x=x, el valor predicho en y, se encontraría en el intervalo siguiente donde 1 Ŷ t sr 1 n 1,n2 2 S XX X X 2 t 1-α/2, n-2 = t-student con n-2 grados de libertad que deja a su izquierda un área de 1 - α/2. s R =Varianza residual del modelo. S XX = nσ X 2 S XX Contraste de Hipótesis Uno de los aspectos más importantes en cualquier tratamiento de datos es el contraste de hipótesis. El contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población. La base de los planteamientos de contraste es formular una hipótesis y determinar si es verdadera o falsa. Existen dos tipos de hipótesis: La hipótesis nula (H 0). Es la hipótesis básica que se formula y se quiere contrastar y, por tanto, es la hipótesis que se acepta o se rechaza. La hipótesis alternativa (H a). Es distinta de H 0 e incompatible con ella. Puede haber varias hipótesis alternativas, y se elige la más adecuada a partir de la información disponible Estadístico de Contraste Una vez planteada la hipótesis tenemos que elegir el estadístico de contraste más apropiado, el cual es una variable aleatoria que seguirá una función de probabilidad y para cada muestra de datos tomará un determinado valor, que al compararlo con los valores críticos de esa función de probabilidad, nos permitirá aceptar o rechazar la hipótesis nula. II.85

115 Capítulo II. Fundamentos Teóricos Tipos de Errores Existen dos tipos de errores: El error tipo I es el que cometemos cuando rechazamos la hipótesis nula siendo verdadera. Su probabilidad se representa generalmente por α y se conoce como nivel de significación. El valor máximo que se le suele dar a α es 0,05, lo cual significa que rechazamos un 5% de las veces la hipótesis nula siendo cierta. Se puede fijar un valor de a más bajo, como por ejemplo 0,001 o 0,005, pero el problema es que aumentamos la probabilidad de cometer el siguiente tipo de error. El error tipo II es el que cometemos cuando aceptamos la hipótesis nula siendo falsa. Su probabilidad se representa por β. Este error se tiene en cuenta determinando el tamaño de muestra necesario para garantizar el valor de β prefijado. En el supuesto de que no se tenga en cuenta el tamaño de muestra necesario y, por tanto, se omita el error de tipo II, entonces el procedimiento se suele denominar «contraste de significación», ya que solo tiene en cuenta el error de tipo I. El error de tipo II no se suele tener en cuenta porque, normalmente, se desconoce la información necesaria para ello. Estos contrastes están basados en determinados estadísticos, que resumen las características del conjunto de datos a estudio. Los contrastes comparan estos estadísticos con los valores de los estadísticos tabulados, que dependen del nivel de significación y si los estadísticos calculados superan a los tabulados rechazaremos H 0. Por último, definiremos el p-valor, que es la probabilidad calculada al asumir que la hipótesis nula H 0 es cierta, de que el estadístico de contraste tome valores tan o más extremos que los calculados con la muestra sin restricciones. Si esta probabilidad es menor que nuestro nivel de significación, rechazaremos H Tipos de Contrastes La mayoría de los contrastes de hipótesis pueden agruparse en alguno de los siguientes tipos: El contraste de bondad de ajuste consiste en el planteamiento de hasta qué punto una muestra se puede considerar como perteneciente a una población con una distribución teórica ya conocida. El contraste de independencia o asociación determina si dos caracteres X e Y de una población son dependientes o independientes. El contraste de homogeneidad permite determinar si varias muestras tomadas de la misma población o de poblaciones diferentes se diferencian en un determinado carácter A. II.86

116 Capítulo II. Fundamentos Teóricos Bondad de Ajuste Para determinar si las variables se ajustan a alguna de las distribuciones de las que se han descrito anteriormente es necesario cuantificar si los resultados obtenidos se ajustan a ese modelo o las diferencias son debidas al azar. Los contrastes estadísticos utilizados con este fin se denominan pruebas de bondad de ajuste. Para el contraste de hipótesis se cuenta con dos tipos de análisis, los no paramétricos y paramétricos. Los análisis no paramétricos tienen como ventaja que son de aplicación más general qué los paramétricas, ya que no exige ninguna condición sobre el tipo de distribución. Sin embargo, son menos sensibles a la detección de diferencias que las pruebas paramétricas, aunque de forma general se puede decir que la coincidencia entre los resultados obtenidos entre las pruebas no paramétricas y las paramétricas es superior al 90%. Por tanto, las distintas pruebas de bondad de ajuste que existen se utilizan en función del tipo de datos y la distribución teórica esperada. Una clasificación de los ajustes más empleados seria Muestras categorizadas (distribuciones tanto para variables continuas como discretas). o 2 Test de Pearson. o Test G. Muestras no categorizadas (distribuciones continuas). o o o o o Test Kolmogorov-Smirnov (test K-S). Test de Cramér-von Misses Test de Anderson-Darling Coeficiente de determinación R2 Test de normalidad Shapiro-Wilk Muestras Categorizadas Test de Pearson o Chi-Cuadrado. Se puede aplicar tanto a distribuciones continuas (con los datos previamente agrupados en clases) como a distribuciones discretas. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida. Es considerada como una prueba no paramétrica que mide la discrepancia o distancia entre una distribución observada y otra teórica (bondad de ajuste). La expresión del estadístico seria la siguiente: donde: n 2 i1 O i = Frecuencia observada de la muestra O E 2 i E i i II.87

117 Capítulo II. Fundamentos Teóricos E i = Frecuencia esperada según la distribución teórica n = cantidad de intervalos 2 Cuanto mayor sea el valor de, menos verosímil es que la hipótesis sea correcta. De la misma forma, cuanto más se aproxima a cero el valor de chi-cuadrado, más ajustadas están ambas distribuciones. Para calcular el valor de Chi-Cuadrado se realiza lo siguiente: Se divide la muestra de datos en intervalos y se obtienen la frecuencias observada para cada intervalo (Una buena aproximación para la cantidad de intervalos necesarios puede ser como es el tamaño de la muestra). Se calcula la frecuencia esperada para cada intervalo basados en la función distribución de probabilidad o acumulada. Con la fórmula del estadístico se obtiene el valor de Chi-Cuadrado 2 Finalmente, con el valor de se verifica que sea menor o igual al valor obtenido de las Tablas de Distribución Chi-Cuadrado Test G (Razón de Verosimilitud) 2 Este test es muy similar al test ya que se usa también para cuantificar diferencias entre valores esperados y observados con la hipótesis nula de que nuestra distribución de datos se ajusta a una distribución ya conocida. Además, los grados de libertad se calculan del mismo modo y el valor de 2 contraste del test se obtiene a partir de la tabla.se recomienda la utilización del test G cuando las diferencias entre frecuencias observadas y esperadas son superiores a las frecuencias esperadas y, al 2 igual que el test, no se debe utilizar cuando hay pocos datos. La fórmula que se aplica seria: n oi G 2 oi ln E i1 Del mismo modo que en el test anterior, se busca en la tabla el valor crítico con los v y el nivel 2 de significación determinados y si critico es mayor que G se acepta la hipótesis nula de que los datos se ajustan a la distribución esperada. Debido a que el ajuste a una distribución 2 corrige mediante la siguiente corrección: G adj i 2 del estadístico G no es exacto, el valor obtenido se G 2 a n a 1 II.88

118 Capítulo II. Fundamentos Teóricos donde n es el número de datos y a las categorías en las que están clasificados Muestras no Categorizadas Test de Kolmogorov-Smirnov Se puede usar tanto para muestras grandes como pequeñas. Es un test muy conservador que se aplica a variables continuas. Este test se basa en la diferencia entre la Función de distribución cumulativa y la Función de distribución empírica. La discrepancia obtenida entre la función de distribución teórica de la empírica da como resultado la distancia de Kolmogorov-Smirnov y con esta se puede determinar si la hipótesis se acepta o se rechaza. Claramente, la prueba de Kolmogorov-Smirnov se plantea de la siguiente forma Se plantea la hipótesis nula: o H 0 = Los datos tienen por función de distribución a F 0 o Donde F 0 es la función de distribución de una ley continua dada Se define la función de distribución empírica: 0 para x X1 i ˆF x para Xi x X n 1 para x Xn Se plantea la distancia de Kolmogorov-Smirnov, realizando restas por encima y por debajo de la función entre la función de distribución acumulada y la función de distribución empírica: i1 i ˆ i 1 DKS F,F max F X 1 i, F X i i,,n n n donde F 0(x) es la función de distribución acumulada Finalmente, una vez obtenida la distancia de Kolmogorov-Smirnov se verifica que dicha distancia sea menor o igual a la Distribución del estadístico de Kolmogorov-Smirnov: D KS D n Si y solo si esta condición se cumple, se puede decir que se cumple la hipótesis nula H Test de Cramér-von Misses Es un test que se basa como el anterior, en las diferencias entre la función de distribución acumulativa F 0 y la función de distribución empírica. El estadístico de contraste seria: 2 2 Wn n Fˆ t F0 t df0 t Si se trabaja con muestras ordenadas, el estadístico de contraste seria: n i 1 Wn F 2 0 T i 12n n 2n i1 2 II.89

119 Capítulo II. Fundamentos Teóricos Los valores críticos están tabulados y rechazaremos H 0 para valores grandes del estadístico W n Test de Anderson-Darling Este test también está basado en las diferencias entre la función de distribución acumulativa F 0 y la función de distribución empírica. Es una generalización del test de Cramér- von Misses. El estadístico de este test seria: ˆF t F 2 0 t An n df0 t F t 1 F t Los valores críticos están tabulados y rechazaremos H 0 para valores grandes del estadístico A n2. Por tanto, el estadístico dará una medida de lo alejadas que se encuentran las observaciones de la recta que representa la función de distribución. Cuanto mejor sea el ajuste, tanto menor será dicho estadístico. Estos tres últimos contrastes solo son válidos cuando trabajamos con muestras completas. Para trabajar con datos censurados se pueden obtener los valores críticos utilizando técnicas de remuestreo Test de Normalidad de Shapiro-Wilk Es la prueba más recomendable para testar la normalidad de una muestra, sobre todo si se trabaja con un número pequeño de datos (n < 30). Se basa en medir el ajuste de los datos a una recta probabilística Normal (Figura 45). Si el ajuste fuera perfecto los puntos formarían una recta de 45 (frecuencia observada igual a frecuencia esperada). El estadístico de contraste se expresa por medio de la siguiente ecuación: 1 h 2 W n a j,n x n j1 x j 2 j1 x j j1 donde n es el número de datos, x j es el dato en orden ascendente de muestra que ocupa el lugar j, μ es la media, h es n/2 si n es par o (n-1)/2 si n es impar y a j, n es un valor tabulado. Figura 45. Frecuencias Esperadas y Observadas de una Muestra con la línea de ajuste a una distribución Normal. II.90

120 Capítulo II. Fundamentos Teóricos Una vez calculado el estadístico W se contrasta con un valor W crítico para el nivel de significación elegido. Como este estadístico mide el ajuste a una recta y no la distancia a la distribución Normal, la hipótesis nula se acepta cuando el valor W es superior al valor de contraste tabulado (valor de ajuste muy alto) Coeficiente de Determinación R 2 En una estimación por mínimos cuadrados (Least Squares Method (LSM)), la cuantificación de la bondad del ajuste de un modelo, lineal o no, se indica mediante el coeficiente de determinación lineal R 2, que podría ser definido como el porcentaje que, de las variaciones de Y, explica las variaciones de X a través del modelo estimado. Al ser un porcentaje, el valor de R Ry Sxy y Sx Sy S S siguientes situaciones extremas como se observa en la figura 46: 2 R estará comprendido entre cero y uno, dando lugar a las Si 2 2 R = 0 S = 0 ; S =0 b= 0 y a = Y. El modelo no explica nada. No existe relación lineal 2 R y x y entre las variables. La especificación del modelo podría sustituirse por: Y i = μ + e i, i = 1,...,n siendo su estimación: Yi Y ei, i = 1,...,n Si 2 2 R = 1 S = 0 e i= 0, i = 1,...,n. El ajuste es perfecto. Los datos revelan una relación lineal ey exacta entre las variables. Si la relación entre x e y es marcadamente lineal, entonces existe relación lineal entre las variables entonces 2 R estará muy próximo a 1. Si no 2 R estará muy próximo a cero. Figura 46. Relación entre x e y valores de R 2 II.91

121 Capítulo II. Fundamentos Teóricos Este coeficiente es muy importante, pues determina qué porcentaje (en tantos por uno) de la varianza de la variable dependiente es explicado por el modelo de regresión. En general, se pueden clasificar los valores de 2 R de la siguiente forma: Menor de a a a 0.85 Mayor de 0.85 Muy malo Malo Regular Bueno Muy bueno Además, a diferencia de la varianza residual, este coeficiente es adimensional, esto quiere decir que no se ve afectado por transformaciones lineales de las variables; por tanto, si se cambian las unidades de medida, el coeficiente de determinación permanecerá invariante Fiabilidad en Sistemas Hasta ahora se ha visto la fiabilidad de unidades individuales sin ver cuál era su lugar en el conjunto de la estructura de un sistema. Un sistema sería un dispositivo formado por partes cuya fiabilidad es conocida. Estas partes se llaman componentes. La actuación de un sistema puede analizarse como función de componentes individuales. Si los datos son recogidos en componentes individuales, entonces es posible hacer inferencia estadística sobre la fiabilidad de estos componentes, pero aún queda el problema del cálculo de la fiabilidad del sistema a partir de la fiabilidad de sus componentes. En general el fallo de un sistema se produce al fallar uno o varios componentes. El problema básico de la fiabilidad de sistemas consiste en el cálculo de la fiabilidad R(t) de un sistema a partir de la fiabilidad R 1(t), R 2(t),..., R n(t) de sus componentes Sistemas Coherentes La clase más conocida de sistemas son los sistemas coherentes. El concepto fundamental de los sistemas coherentes (coherent system) es que los componentes se encuentran individualmente, en uno de los dos estados, funcionan o fallan, y el estado de los sistemas se representa en términos de los estados individuales de cada componente a través de las funciones de estructura (structure function). Sea un sistema con n componentes. Se define X, como el estado del componente i. Donde: 1 Xi 0 si el componente funciona si el componente no funciona Se define φ, como el estado del sistema. Donde: II.92

122 Capítulo II. Fundamentos Teóricos 1 0 si el sistema funciona si el sistema no funciona La función de estructura es φ = φ(x), donde X = (x 1;...,x n) es el vector de los estados de los componentes. Un sistema representado por una función de estructura es coherente si cumple las siguientes propiedades: Relevancia de cada componente, es decir, no hay ninguna componente cuya fiabilidad no afecte a la fiabilidad del sistema; Monotonicidad, que encierra el concepto de que la fiabilidad de un sistema nunca puede ser mejorada cuando uno de sus componentes se vuelva menos fiable. Estas dos propiedades se pueden formular como: El i-ésimo componente es irrelevante si, para todos los estados de los otros componentes x 1,...,x i-1, x i+1,...,x n el estado del sistema es el mismo, independientemente de que x i sea 0 o 1. φ(x 1,...,x i-1, 1,x i+1,...,x n) = φ(x 1,...,x i-1, 0,x i+1,...,x n) Nota: Si un componente no es irrelevante es relevante. La monotonicidad de la función de estructura se refiere a la monotonía de cada x i. φ(x 1,...,x i-1, 0,x i+1,...,x n) φ(x 1,...,x i-1, 1,x i+1,...,x n) Una función de estructura φ se define como un sistema coherente si es monótona y cada componente es relevante Sistema en Serie Es aquel donde el fallo del sistema equivale al de un solo componente, en la figura 47 se muestra esquemáticamente y se expresa analíticamente de la siguiente forma: X n xi i1 Figura 47. Sistema en Serie Formado por Tres Componentes Sistema en Paralelo Es aquel donde se produce un fallo cuando todos los componentes fallan, en la figura 48 se muestra esquemáticamente y se expresa analíticamente de la siguiente forma: II.93

123 Capítulo II. Fundamentos Teóricos n 1 1 X x i1 i Figura 48. Sistema en Paralelo con Tres Componentes Sistema Mixto. Es un sistema más general que enlaza los sistemas serie y los sistemas paralelos. En este caso el sistema está operativo si por lo menos K componentes de entre n componentes están operativos. K = n corresponde a un sistema en serie y K = 1 corresponde a un sistema en paralelo. X 1 0 El sistema 2 entre 3 de la figura 49 está operativo si por lo menos dos componentes de una de las tres cadenas están operativos. En este caso la expresión anterior debería contener la restricción que los componentes fueran de la misma cadena. x i x i K K Figura 49. Sistema 2 Componentes en Serie entre 3 en Paralelo Función de Fiabilidad La función de fiabilidad de un sistema puede formalizarse como: n R t X R t R t x i1 xi i 1 i 1xi II.94

124 Capítulo II. Fundamentos Teóricos donde los componentes son independientes y R(t) es la fiabilidad del componente i, es decir, es la probabilidad de que el componente i-ésimo funcione en el instante t, y donde φ(x) es la función de estructura que define a x i = 1 si el componente funciona y x i = 0 si no funciona Fiabilidad de un Sistema en Serie con Tasa de Fallo Constante Si los componentes son independientes, la fiabilidad de un sistema en serie se calcula por la regla del producto. Es decir, un sistema en serie, con los componentes independientes, funciona sí y sólo sí todos los componentes funcionan: R t R t R t R t 1 2 n Se dice que hay un sistema en serie con tasa de fallo constante cuando todos los componentes tienen tasa de fallo constante, es decir, cuando el tiempo de vida de los componentes se distribuye exponencial de parámetro 1/η i, t R t e y por la regla del producto: t 1 t 2 t n R t e e e O, equivalentemente: t R t e donde n Un sistema en serie con los componentes con tasa de fallo constante tiene la tasa de fallo constante e igual a la suma de las tasas de fallo. La vida media de un sistema en serie con los componentes con tasa de fallo constante se calcula a partir de las vidas medias θ i = η i de sus componentes: En un sistema en serie complejo, formado por grupos de componentes idénticos, si el primer grupo tiene n 1 componentes con tasa de fallo 1/η 1, el segundo n 2 componentes con tasa de fallo 1/η 2, etc., las fórmulas anteriores se pueden escribir como: donde la tasa de fallo del sistema seria: 1 2 n n n k 1 2 n R t R t R t R t n y la vida media del sistema seria: 1 n1 n2 nk 1 2 k II.95

125 Capítulo II. Fundamentos Teóricos 1 n1 n2 nk 1 2 donde θ i = η i las vidas medias de los subgrupos de sus componentes. La tasa de fallo de un sistema en serie, formado por n componentes idénticas con tasa de fallo 1/η c seria: 1 n Si los componentes no son idénticos, a veces es útil considerar la tasa de fallo equivalente, que sería la que tendrían los componentes de un sistema con la misma fiabilidad si fuesen idénticos. Es igual a la media aritmética de las tasas de fallo reales de los componentes: n c c n n Fiabilidad de un Sistema en Paralelo La fiabilidad de un sistema en paralelo con n componentes de fiabilidad R i(t), i = 1,, n seria: 1 2 R t 1 1R t 1R t 1Rn t donde la probabilidad de que el sistema falle antes de un instante t seria: n Pr T t R t R t R t R t Si todos los componentes son idénticos, con fiabilidad R c(t), entonces la fiabilidad seria: R t 1 1 R t La fiabilidad de un sistema en paralelo, donde todos los componentes tienen tasa de fallo constante, seria: t t n 1 t 1 R t e e e Se concluye que un sistema en paralelo, donde todos los componentes tengan tasa de fallo constante, no tiene tasa de fallo constante. seria: En un sistema en paralelo si los componentes son idénticos, con tasa de fallo 1/η c, la fiabilidad y la vida media puede obtenerse como: t c 1 1 R t e c n n II.96

126 Capítulo II. Fundamentos Teóricos 1 c n 1 Para n grande se puede utilizar la aproximación c, donde γ es la constante de Euler: ln n γ = 0, Redundancia La redundancia es el principal método para aumentar la fiabilidad de un sistema y se define como la existencia de más de un medio para realizar una determinada función. Estos medios no tienen por qué ser idénticos (MIL-STD-721B). La redundancia puede implicar el uso de dos o más componentes o conjuntos idénticos, de forma que cuando uno falla hay otros que realizan la función; o bien puede incluir medios diferentes para realizar la función. Una rueda de repuesto de un automóvil es un ejemplo de pieza redundante; el sextante manual usado para la navegación de un vehículo espacial en caso de fallo de los controles automáticos es un ejemplo del segundo método. En ambos ejemplos, el componente redundante (la rueda o el sextante) se usa sólo cuando falla el sistema primario. Este uso se llama redundancia secuencial. Otros sistemas redundantes se hacen funcionar simultáneamente, de modo que todos los sistemas utilizables (no fallados) realicen la función durante todo el tiempo. Este tipo se llama redundancia en paralelo activo. El uso de cuatro motores en un avión es un ejemplo de redundancia en paralelo activo. El tipo de redundancia viene impuesto ante todo por consideraciones de actuación del sistema. La redundancia secuencial proporciona teóricamente más fiabilidad que la redundancia en paralelo activo si las funciones de detección de fallos y conmutación son extremadamente fiables. En caso contrario se prefiere la redundancia en paralelo activo desde el punto de vista de la fiabilidad. Ambos tipos dan una fiabilidad del sistema mucho mejor que el sistema no redundante. Los cálculos de la fiabilidad de sistemas redundantes pueden resultar muy complicados. En esta apartado se presentan, a título de ejemplo, algunos cálculos de fiabilidad de sistemas con componentes redundantes. La norma MIL-STD-721 B define la redundancia activa (redundancia en paralelo activo) como la redundancia de los sistemas en los que los objetos redundantes operan simultáneamente, en lugar de ser activados cuando son necesarios. Y la redundancia secuencial (standby) se define como la redundancia de los sistemas en los que el medio alternativo de realizar una función no se activa hasta que es necesario, y es activado por el fallo del medio primario de realizar la función. II.97

127 Capítulo II. Fundamentos Teóricos Un ejemplo de redundancia activa sería el de un avión trimotor, que funciona siempre que funcionen dos motores. Consideraciones a tener en cuenta serian que, en un sistema secuencial (standby), el componente redundante se activa mediante un interruptor que tiene su propia fiabilidad. Si la fiabilidad del interruptor no es del 100%, se puede perder la fiabilidad ganada con la redundancia. Y además, el hecho de que el componente redundante no esté activado mientras el otro funciona correctamente, reduce las oportunidades de fallo. Por lo tanto, si la fiabilidad del interruptor es 100% fiable, un sistema secuencial (standby) tiene una fiabilidad más alta que un sistema en paralelo simple. Para un sistema en paralelo con n componentes standby, con interruptor 100% fiable, con todos los componentes con la misma tasa de fallo 1/η, constante, la fiabilidad puede calcularse a través de la expresión: 2 n1 t t t t R e 1 2! n 1! 2 n1 que es la expresión para un sistema con n unidades iguales y con (n-1) unidades de reserva. La redundancia secuencial con interruptor 100% fiable requiere de menos componentes para alcanzar la misma fiabilidad que la redundancia en paralelo activa. Se supone que el dispositivo de detección de fallo no es perfectamente fiable, por lo que es preciso tener en cuenta sus probabilidades de fallo. Si se supone que el diseño del sistema es tal que la función de detección sólo está ligada a las unidades de reserva y no afectan a la primera unidad que funciona, entonces se incluye en la fórmula la probabilidad de detección de fallo P SW. En este caso, dado un sistema formado por dos componentes con tasa de fallo constante en redundancia standby, si la activación del componente es manual, mediante un interruptor 100% fiable, y P SW es la probabilidad de detección, entonces la fiabilidad seria: t t Rt e 1 P SW Observaciones. Si la activación se hace mediante un interruptor automático con probabilidad de funcionar p, la fórmula también es válida. Si la activación se hace mediante un interruptor automático y la probabilidad de funcionar es variable, se debe considerar la fiabilidad del interruptor. Cuando tiene tasa de fallo constante 1/η s, la fórmula seria: t s s 1 t R t e e II.98

128 Capítulo II. Fundamentos Teóricos Análisis Mediante Arboles de Fallo La fiabilidad de redes (Network reliability) se basa en una representación gráfica abstracta de un sistema. Básicamente está orientada al suceso éxito, pero en la práctica es mejor orientarla al fallo. Muchas veces un árbol de fallos (o árbol lógico) es el mejor dispositivo para deducir cuál es el mayor evento que puede producir un fallo en el sistema. El análisis mediante árboles de fallo, abreviadamente FTA (failure tree analysis), es una técnica que utiliza gráficos, denominados árboles de fallo, que representan con operadores booleanos ("Y" y "O") las combinaciones de estados lógicos susceptibles de conducir un sistema a una situación no deseada. II.99

129 Capítulo III. Metodología Experimental

130

131 Capítulo III. Metodología Experimental 3.1 Procedimiento Metodológico El procedimiento metodológico propuesto para la realización de este estudio seria el siguiente tanto para Fiabilidad como Mantenibilidad: Análisis Descriptivo de los Datos. Análisis No Paramétrico (o paramétrico según se observe en el análisis descriptivo) o o o Se obtendrá la Función de Supervivencia (no Reparabilidad),.Función de Distribución (Mantenibilidad) y Función de Riesgo Acumulado (Tasa de Reparación Acumulada). Se realizara un ajuste de los Datos Tiempo-Evento a Modelos Paramétricos y se obtendrán las funciones más importantes Se realizara una estimación no Paramétrica Análisis Paramétrico o o o o o o o Estimación Grafica y analítica de la distribución teórica optima a los datos Estimación Grafica Paramétrica de los parámetros de la distribución elegida. Estimación Puntual de los parámetros por medio de Mínimos Cuadrados (LSM), Máxima Verosimilitud (MLE) y Momentos (MOM). Estimación de Parámetros por Intervalos mediante Mínimos Cuadrados, Máxima Verosimilitud y Momentos. Se realizara un análisis mediante el Error Cuadrático Medio (MSE) para obtener el método de menor error para la obtención de los parámetros. Se analizaran los resultados mediante test de bondad de ajuste por Mínimos Cuadrados (ANOVA, Test de Independencia Lineal y Correlación Lineal) y estadísticos (Pearson o Chi-Cuadrado, Kolmogorov-Smirnov, Cramér-von Misses y de Anderson-Darling) Se calcularan las expresiones matemáticas y graficas de la distribución con loas parámetros obtenidos Análisis Comparativo no Paramétrico y Paramétrico de las diferentes funciones. Simulación, se realizara una generación y ajuste de variables aleatorias de la Distribución elegida para una muestra de n = 10, 20 y 40 en 5 ocasiones cada una, realizándose al final un resumen de los test de MSE y de las pruebas de Bondad de Ajuste De un modo esquemático sería similar al presentado en la figura 50. III.2

132 Capítulo III. Metodología Experimental Figura 50: Procedimiento Metodológico en Fiabilidad y Mantenimiento. III.3

133 Capítulo IV. Resultados y Análisis

134

135 Capítulo IV. Resultados y Análisis 4.1. Aplicación Práctica Introducción El uso de métodos estadísticos con el fin de mejorar la calidad de productos y servicios se ha incrementado considerablemente. Una extensión natural de lo que pasó en este mundo de la calidad se manifiesta también en un cambio de enfoque en la mejora de la fiabilidad y del mantenimiento. En una forma práctica, la fiabilidad se define como "calidad a través del tiempo". Hoy en día los ingenieros están convencidos de que una buena fiabilidad y un buen mantenimiento son unas características indispensables para tener la oportunidad de competir. En este trabajo se hace un acercamiento a los conceptos de la fiabilidad y mantenimiento desde una visión estadística. Este estudio está orientado a estudiar y analizar los fallos que se producen en equipos industriales, entendiendo por fallo aquellos eventos indeseables que debemos tratar de evitar, prevenir o anticipar, a través del estudio de su probabilidad de ocurrencia mediante métodos probabilísticos automáticos. Con esta finalidad, analizamos el impacto de aplicar herramientas informáticas en los estudios fiabilidad y mantenimiento, conceptualizando el mismo como aquella función cuyo objetivo es la prolongación y/o la recuperación de las funciones de determinado componente o máquina. La metodología a aplicar, en este estudio probabilístico de Fallos, consistirá en analizar una muestra representativa de la población, y que previo análisis de sus datos será estudiada con el fin de realizar un modelo de realizar un modelo para su simulación. La utilización de software para realizar el análisis de fiabilidad se ha vuelto imprescindible en la práctica, pues cuando se tiene gran cantidad de información a manejar, realizar el análisis sin un ordenador sería una tarea poco tediosa. Igualmente, la utilización de software permite obtener información precisa y confiable del modelo a estimar. Estas razones han sido la motivación para incluir conjuntamente con la teoría la realización práctica del análisis utilizando librerías estadísticas. A lo largo de este trabajo, se definirán y desarrollan los elementos necesarios para realizar el estudio mediante el software estadístico R. La decisión de usar esta herramienta no solo está basada por ser un software de libre uso, sino por la coherencia presentada por las librerías accesibles y la teoría desarrollada en este trabajo, así como las opciones que ofrece para el manejo de datos y graficar la información de forma precisa, contribuyendo notablemente al estudio del modelo de a estimar al facilitar su análisis. Sin dejar de lado su aspecto educativo, ya que lleva al usuario a trabajar a un nivel de programación, por lo que hace necesario el conocimiento de lo que se desea realizar Características de los datos En este trabajo se dispondrá de una relación de tiempos de fallo y reparación de un total de 80 dispositivos eléctricos cuya unidad de tiempo será el día, que están indicados en el Apéndice 1. IV.2

136 Capítulo IV. Resultados y Análisis Por la descripción de los datos, se supone que a cada dispositivo corresponde un solo tiempo de reparación, que podría considerarse como de inspección, ya que no hay más datos de vida después de la reparación, por lo tanto se estará ante dispositivos no reparables, realizándose un estudio completo sin censura, ya que se sabe que el estudio termina cuando han fallado todas las unidades. Las variables aleatorias continuas tomaran los valores indicados en el apartado Disponibilidad, de tal forma que el tiempo de fallo seria el tiempo que el dispositivo estaría operativo desde su puesta en marcha hasta su parada TTF que conforman el llamado MTTF (Mean Time To Failure) y el tiempo de reparación como el tiempo de parada por reparación TTR que conforman el MTTR (Mean Time To Restoration). Se realizaran dos estudios, uno de fiabilidad de los dispositivos mediante la muestra de tiempos de operación TTF y otro estudio de mantenibilidad con los datos de reparación TTR 4.2. Análisis Fiabilidad de tiempos de Operación TTF Análisis Descriptivo Para poder realizar un análisis adecuado, es importante conocer la estructura de la población con la que se está trabajando mediante un análisis descriptivo a para ello se utilizaran alguna medidas centrales (media, mediana, moda), indicadores de dispersión y forma (desviación típica, varianza, rango, cuartiles, percentiles, asimetría, curtosis, etc.) y finalmente graficas (histograma) para poder realizar una aproximación de las principales características del conjunto de datos En el Apéndice 4, se puede observar el programa realizado en R para el Análisis Exploratorio de datos en el apartado 2.1. En la tabla 1 se muestran los siguientes estadísticos descriptivos obtenidos: Tabla 1. Estadísticos Descriptivos para el Tiempo Operativo TTF Medidas de centralización Min. 1st Qu. Median Mean 3rd Qu. Max > mode > range 0.68 $range 2 [1] > quantile 0% 25% 50% 75% 100% > Medidas de dispersión > var [1] > sd [1] > Medidas de forma (asimetria, curtosis) > skewness [1] > kurtosis [1] IV.3

137 Capítulo IV. Resultados y Análisis De las medidas de centralización se puede observar que el tiempo medio fue de días pero el máximo tiempo operativo de un dispositivo fue de 351,25 días y el tiempo mínimo fue de 0.11 día, siendo de 0.68 días el valor más frecuente (2 veces) y de el valor mediano. En el 50% de los casos el tiempo operativo oscila entre 4.33 días y Los tiempos se encuentran en un rango de días, presentando una dispersión elevada con una varianza de y con una desviación típica de La elevada diferencia entre la media y la mediana x Md, reflejara un elevado grado de asimetría hacia la derecha, teniendo la distribución de los datos a la derecha una cola más larga que a la izquierda, quedando ratificado por el coeficiente de asimetría (± 0.5 aprox. para distribución Simétrica). El coeficiente curtosis presenta un valor muy elevado (5.038), la distribución será leptocúrtica (curtosis muy elevada), presentando una alta concentración de valores en la cola de la distribución (± 0.5 aprox. cuando la distribución es Mesocúrtica). Esto se pone claramente de manifiesto en el histograma (Figura 49) con una distribución normal. Se obtiene información más clara de las variables de interés mediante los histogramas de la figura 51 y 52, donde se presenta la frecuencia de los tiempos hasta el fallo. Se puede observar que la mayoría de los dispositivos tienen un tiempo hasta el fallo menor a 80 días (3º cuartil) y en general se presenta el fallo los primeros 20 días (mediana), aunque hay algunas unidades que fallan entre 80 y 200 días. La asimetría mencionada anteriormente se debe a las diferencias existentes entre los tiempos de fallo de la mayoría de los dispositivos y 5 dispositivos que tienen un tiempo operativo extraordinariamente mayor (entre 200 y 350 días). Figura 51: Histograma de Tiempo Operativo de los Dispositivos. IV.4

138 Capítulo IV. Resultados y Análisis Figura 52. Diagrama de Cajas de Tiempo Operativo de los Dispositivos. Este ha sido el primer acercamiento a la relación de los tiempos de operación y su distribución teórica, en la que hay que destacar el alto nivel de dispositivos (40 unidades) con corto tiempo de operación (entre 0 y 20 días), es decir una alta tasa de mortalidad infantil, pasando a continuación a una estabilización en los tiempos entre 20 y 100 días (27 unidades) y a partir de los 100 días unas probabilidades bajas de fallo (13 unidades). Por las gráficas anteriores no se detectan irregularidades en la continuidad del posible modelo teórico, por tanto, no se aprecia zonas especiales de desgaste, aunque sería interesante un estudio de los 5 outsiders, ya que si estos dispositivos han tenido esta vida puede ser debido a causas especiales de algún tipo de mantenimiento preventivo o predictivo Análisis No Paramétrico Una vez realizado un análisis exploratorio de los datos de tiempo operativos, se ha de aplicar métodos estadísticos para realizar las estimaciones de fiabilidad mediante el ajuste de algún modelo teórico. Resulta adecuado, o incluso necesario, iniciar el análisis con métodos analíticos y gráficos que permitan interpretar los datos obtenidos, sin la distorsión que podría causar la elección de un modelo paramétrico subyacente no adecuadamente acertado. Es por tanto, adecuado comenzar el estudio mediante métodos no paramétricos, ya no se asume ningún tipo concreto de modelo probabilístico para los tiempos de fallo y las funciones básicas (fiabilidad, riesgo), estimándose directamente de los datos. En algunos casos, estos métodos no paramétricos serán suficientes para realizar el análisis de los datos. Sin embargo, en otras IV.5

139 Capítulo IV. Resultados y Análisis circunstancias, son un paso intermedio hacia un modelo más estructurado (paramétrico), que permita profundizar más en el análisis de las observaciones Función de Supervivencia. El aspecto analítico fue indicado en el apartado teórico (Estimador de Kaplan-Meier (KM) de la función de fiabilidad).así se indicó que la estimación del producto-límite de S(t) para la duración t, es una función escalonada, que se calcula como el producto de uno menos el riesgo existente hasta el período t: Utilizando la normalidad asintótica de aproximado para donde Z ee Sˆ t 1 2 Ŝ t Ŝ t, a un nivel del 100(1-α)%: nj d n j:tj t j j Ŝ t, se puede construir el intervalo de confianza 1 2 Sˆ t Z ee Sˆ t es el cuantil correspondiente a la distribución normal estándar y Var Sˆ t es el error estándar de estimación del estimador KM de S(t), que se calcula con la fórmula de Greewood de la varianza del estimador KM, el cual viene dado por la expresión Var Sˆ t Sˆ t 2 j:tj t dt n n d j j t En el apartado 2.2. del Apéndice 4, se puede observar el programa realizado en R para el análisis no paramétrico con comentarios adicionales. El estimador de Kaplan-Maier para la función de supervivencia es obtenido mediante la librería Survival de R con la función survfit. Esta función en su forma más sencilla, solo requiere un objeto de supervivencia creado por la función Surv, en el cual se captura el tiempo observado de la variable y su estado (censurado o no). Presenta los argumentos time y event. El argumento time corresponde al tiempo desde que el dispositivo entra al estudio, hasta que este presenta el fallo o censura. El argumento event es una variable binaria que indica el estatus del tiempo registrado, donde, de forma predeterminada corresponde a 0 <- si el dato es censurado 1 <- si el fallo es observado IV.6

140 Capítulo IV. Resultados y Análisis Debido que no se tiene información de datos censurados, se asumirá un estudio con datos completos. Los dispositivos han fallado en el tiempo de control y, por tanto, su estado se representara por 1 en todos ellos. La función survfit de R indicara la información del estimador de Kaplan-Meier para la función de supervivencia(tabla 2), donde n corresponde al número de individuos en estudio, events corresponde al número de fallos presentadas en los n individuos (por tanto, el número de censuras está dado por n - events), median es el tiempo mediano antes de que se presente la falla con respecto a la curva de la función de supervivencia estimada (el tiempo t tal que S(t) =.5 ), 0.95LCL es límite inferior de una banda estimada con un 95% de confianza para el valor de median y 0.95UCL es límite superior de una banda estimada con un 95 % de confianza para el valor de median (esta banda es estimada por el método ordinario). Tabla 2. Estimador de Kaplan-Meier para el Tiempo Operativo TTF records n.max n.start events median 0.95LCL 0.95UCL En el caso del Tiempo Operativo TTF, se tienen 80 sujetos de estudio, los 80 presentan fallo y 0 presentan censura, el tiempo mediano antes de presentar fallo es de 19.6 y un intervalo con un 95 % de confianza está dado en su límite inferior por 12.8 y en su límite superior por 41.5 (en los intervalos de confianza obtenidos por la función survfit, para Inf toma el valor de 1 y -inf toma el valor de 0). Información adicional se puede obtener mediante la función summary como se indica en la tabla 3 (en el apartado 2.1. del Apéndice 4 se puede observar la tabla completa) Tabla 3. Información del Estimador de Kaplan-Meier time n.risk n.event survival std.err lower 95% CI upper 95% CI donde time representa el tiempo para el que se presenta la información (anteriormente, la información se presentaba para el tiempo dado por median ), n.risk indica la cardinalidad del conjunto IV.7

141 Capítulo IV. Resultados y Análisis en riesgo o el número de individuos que continua en estudio al tiempo correspondiente, n.event corresponde al número de fallos que se presentan entre cada tiempo, survival indica el valor que toma la función de supervivencia estimada por el método Kaplan-Meier en el tiempo correspondiente, std.err corresponde al error estándar estimado para la función de supervivencia en el tiempo respectivo (expresión de Greewood) y finalmente lower95%ci y upper95 %CI denotan el intervalo de confianza para la función de supervivencia en cada tiempo como se mencionó anteriormente. El tipo de intervalo utilizado es el estándar (argumento conf.type= plain en la función survfit), en el caso de observar valores fuera de límites del intervalo, se podría ir a estimar un intervalo de confianza para la función de supervivencia mediante la transformación del valor de expresado en los apartados de teoría y ˆR t (i.e. log o log-log), En la figura 53 se muestra el estimador de Kaplan-Meier de la función de supervivencia con el intervalo de confianza para los 80 dispositivos, podría ser de interés analizar los tiempos de censura, pero este no es el caso, ya que toda la muestra fue observada. Figura 53. Función de Supervivencia Estimada con Intervalo de Confianza. Se puede analizar la evolución de la probabilidad de supervivencia en el modelo con su respectivo intervalo de confianza y considerar la proporción de dispositivos que presentan fallo de los que están en riesgo entre cada periodo de tiempo de fallo. Se muestran 4 zonas diferencias con pendientes diferentes, siendo la más aguda de 0 a 20 días, una zona fuerte entre 20 y 100 días, una zona media entre 100 y 200 días una zona de estabilización entre 200 y 350 días. En la figura 54 se muestra un gráfico con la comparativa de resultados de la Estimación de Función de Supervivencia mediante los métodos de Kaplan-Meier y Nelson-Aalen. IV.8

142 Capítulo IV. Resultados y Análisis Figura 54. Comparativa de Métodos de Estimación de la Función de Supervivencia Función de Distribución o de Probabilidad La función de distribución vendría representada por F(t)=1-S(t), en la figura 55: Figura 55. Función de Distribución Se puede analizar la evolución de la probabilidad acumulada de supervivencia en el modelo con su respectivo intervalo de confianza y considerar la proporción de dispositivos que presentan fallo para un periodo de tiempo de fallo Función de Riesgo Acumulado En la figura 56 se presenta la función de riesgo acumulado H(t) = - ln R(t), donde se puede apreciar los valores que va tomando y a partir de ellos, se demuestra el carácter de función cercana a la linealidad, con una pequeña convexidad. IV.9

143 Capítulo IV. Resultados y Análisis Figura 56. Funciones de Riesgo Acumulado. La función de riesgo acumulado y la función de supervivencia están relacionadas para datos continuos de la siguiente forma S(t) = exp {-H(t)}. Esto ofrece un método de estimación inmediata de H(t) haciendo logaritmos a ambos lados H(t) = -logs(t). Un segundo método de estimación de H(t) es usando el estimador de Nelson-Aalen y su varianza. En la figura 57 se muestra un gráfico con los resultados de la comparación de la estimación de la función de riesgo acumulado por ambos métodos. Se muestra una ligera diferencia desde el tiempo de fallo de 100 días que va incrementándose paulatinamente, coincidiendo con una probabilidad de supervivencia menor de un 20% (ver figura 53). Figura 57. Comparativa de Métodos de Estimación de la Función de Riesgo Acumulado IV.10

144 Capítulo IV. Resultados y Análisis Ajuste de Datos Tiempo-Evento (supervivencia) a Modelos Paramétricos Se pueden obtener modelos paramétricos puntuales para la función de supervivencia, riesgo y riesgo acumulado. Estos modelos son válidos para un solo valor en el tiempo para el cual se va a hacer la inferencia. En algunas aplicaciones resulta de interés obtener estos modelos paramétricos. Dentro de la librería flexsurv de R, está la función flexsurvreg que crea modelos paramétricos para datos de tiempo hasta el suceso (supervivencia). Los datos pueden ser censurados por la derecha o truncados a la izquierda. Diferentes distribuciones paramétricas están disponibles para ser utilizadas Función de Supervivencia (Fiabilidad) S(T) Con la función flexsurvreg mediante la opción "survival" (Apéndice 4, apartado ) se puede obtener la función de supervivencia con una serie de funciones paramétricas, como se indica en la figura 58 Figura 58. Función de Supervivencia con Modelos Paramétricos De las 4 funciones de fiabilidad paramétricas propuestas, la función Weibull y Gamma serían las que presentan un ajuste más acentuado a la función de supervivencia Función de Riesgo (Fallo) h(t) En esta ocasión es necesaria la función muhaz, que estima la función de riesgo para datos censurados a la derecha con la opción "hazard" de la función flexsurvreg (Apéndice 4, apartado ), en la figura 59 se muestra el resultado: IV.11

145 Capítulo IV. Resultados y Análisis Figura 59. Función de Riesgo con Modelos Paramétricos Las funciones lognormal y Exponencial difieren del patrón mostrado por la función de riesgo, principalmente esta última, ya que es conocido que la exponencial tiene una tasa de fallo constante en el tiempo. La función de Weibull presenta una posición cuasi paralela a la función no paramétrica y finalmente la función Gamma presenta un gráfico cercano e irregular con relación a la función de estudio Función de Riesgo (Fallo) Acumulado En esta ocasión se utilizada la función flexsurvreg con la opción "cumhaz" de (Apéndice 4, apartado ), mostrándose en la figura 60 el resultado obtenido: Figura 60. Función de Riesgo Acumulado con Modelos Paramétricos IV.12

146 Capítulo IV. Resultados y Análisis La Función de Weibull y Gamma serían las que presentarían un ajuste más cercano a la función en estudio. Las funciones LogNormal y Exponencial difieren de la función de estudio principalmente a partir de los 100 días. En todos los gráficos se puede observar claramente la existencia de aproximación de dos distribuciones paramétricas (Weibull y Gamma) a los datos no paramétricos Estimación no Paramétrica Debido a que una de las distribuciones que presenta un ajuste más adecuado es la distribución de Weibull, se realizara a continuación una estimación de parámetros de esta última mediante la función survreg (máxima verosimilitud-mle) que se realiza de forma escala-localización que es una parametrización diferente a la función de rweibull (paramétrica), y a menudo conduce a la confusión por la terminología. scala en survreg = 1/(rweibull shape) intercept en survreg = log(rweibull scale) Para el log de máxima verosimilitud todas las paramétrizaciones conducen al mismo valor. En el apartado del apéndice 4, se muestra su forma de cálculo, obteniendo de forma resumida los siguientes parámetros expresados en la tabla 4: Tabla 4.Parámetros de Distribución Weibull 63. Las funciones principales resultantes con los parámetros obtenidos, se muestran en las figuras 61- Figura 61. Función de Supervivencia o Fiabilidad Weibull Figura 62. Función de Riesgo Weibull IV.13

147 Capítulo IV. Resultados y Análisis Figura 63. Función de Riesgo Acumulado Weibull Se ha podido identificar como las observaciones en el estudio no paramétricas se podrían ajustar a ciertas distribuciones paramétricas, por lo que se optara por realizar a continuación un estudio paramétrico, para la obtención de la distribución más acertada y los parámetros que mejor se adapten a las observaciones Análisis Paramétrico Una vez que las observaciones han sido analizadas por medios no paramétricos para hallar alguna distribución teórica que se ajuste correctamente a las observaciones, ya que se partía con la asumpción de que no se conocía nada sobre su distribución. Podemos a continuación realizar un estudio paramétrico con la información obtenida del análisis anterior. Aunque a modo educativo realizaremos el análisis partiendo de la situación que se hubiera decido realizar el análisis paramétrico directamente con la asumpción que las observaciones se comportan de acuerdo a alguna distribución teórica determinada Estimación Grafica Los métodos gráficos que se van a estudiar en esta sección, tienen por objetivo estudiar si los datos siguen un determinado modelo o no. Las técnicas de estadística descriptiva que se emplean habitualmente en la mayor parte de las áreas: Histogramas, diagramas de tallos y hojas, Box-plots etc., no se van a poder utilizar en fiabilidad debido al problema de la censura que se estudiará posteriormente. Por ello es preciso utilizar una serie de técnicas específicas que se basan en la estimación de la Función de Distribución. Al representar gráficamente las funciones de distribución (f.d.) de las diferentes distribuciones teóricas, se obtienen curvas muy similares, muchas de ellas difíciles de ser identificadas a simple vista. IV.14

148 Capítulo IV. Resultados y Análisis Es por ello que se utilizan los gráficos de probabilidad, los cuales hacen uso de escalas especiales en los ejes, de manera que al representar la f.d. ésta tenga forma lineal. Este tipo de gráficos muestran la f.d. linealizada de una distribución teórica junto con una nube de puntos que representan estimaciones puntuales de la f.d. de T. Evidentemente, cuanto más se aproxime la nube de puntos a la recta que aparece en el gráfico, tanto mejor será el ajuste. Si se lograse aproximar la distribución de T mediante alguna distribución teórica conocida, sería posible usar esta última para representar gráficamente estimaciones de la función de distribución Los diagramas de cuantiles (Q-Q plots) comparan en un sistema de coordenadas cartesianas, los cuantiles de la distribución teórica (eje X) con los cuantiles muéstrales (eje Y) En la Figura 64 se muestran diagramas de cuantiles para seis distribuciones teóricas (normal, lognormal, Exponencial, Weibull, Gamma, Poisson) de ajuste a los cuantiles de las observaciones, estas han sido realizadas mediante la función "fitdistr" de R (Apéndice 4, apartado Análisis Grafico), los parámetros de la distribución teórica univariante no son fijados y realizándose su estimación por máxima verosimilitud. Figura 64. Modelación de las Observaciones con varias Distribuciones Teóricas IV.15

149 Capítulo IV. Resultados y Análisis Se puede observar como los puntos representados en el gráfico están suficientemente próximos a la recta presentado una distribución Leptocúrtica para las distribuciones de Weibull y Gamma, por lo que se podría dar por bueno el ajuste de las observaciones mediante dichas distribuciones. Se podría considerar la distribución exponencial, pero se ha de descartar ya que esta distribución tiene una tasa de fallo constante y los datos aportados no siguen dicha distribución como fue comentada en el análisis descriptivo. En teoría esta técnica descriptiva debería de haber sido suficiente para realizar la discriminación entre la distribución de las observaciones y las diferentes distribuciones teóricas propuestas, pero a la vista de los resultados, no es suficiente. Por lo que se cree conveniente realizar un test analítico que ayude a tomar la decisión de la distribución teórica más acertada (aunque conociendo que no formaría parte de este apartado de estimación grafica). La idea inicial seria realizar un test de bondad de ajuste y observar el resultado del estadístico. Se ha optado realizar el test de Kolmogorov-Smirnov mediante la función "fitdistr" en R (Apéndice 4, apartado Ajuste Analítico Preliminar), se trata de un test que analiza la diferencia entre las frecuencias relativas acumuladas de las distribuciones teórica y empírica. En la tabla 5 se indican los resultados obtenidos: Tabla 5. Ajuste Analítico ordenado por Ks stat distribution param1 param2 Log_Likelihood ks stat ks pvalue [1,] "gamma" "0.516" "0.009" " " "0.077" " " [2,] "weibull" "0.638" "40.168" " " "0.083" " " [3,] "lognormal" "2.782" "1.922" " " "0.119" " " [4,] "exponential" "0.018" "NA" " " "0.221" " " [5,] "normal" "55.058" "75.564" " " "0.234" " " [6,] "poisson" "55.058" "NA" "-Inf" "0.583" "0" Si son observados los valores del estadístico de K-S, los cuales habría que comparar con el establecido en la tabla K-S D 0.05, 80 =1.36/ 80 = para un nivel de significación de 5% y una muestra de 80 observaciones, se tendría que dado que el estadístico de las distribuciones Weibull y Gamma son menores que el valor de la tabla (0.1521) no se puede rechazar la hipótesis de que las observaciones sigan la distribución teórica. Por tanto, el uso del estadístico K-S o el K-S p-value no es suficiente ((P-value mayores de 0.05 indicarían que las observaciones proviene de la distribución seleccionada con 95% de confianza), ya que es un test muy conservador y no indica claramente la distribución óptima. Pero si analizamos los resultados ordenados en la tabla 6 para el estadístico de log verosimilitud (no es más que el logaritmo de la verosimilitud para la estimación de los parámetros de una distribución de probabilidad mediante el "método de máxima verosimilitud" (en inglés "method of IV.16

150 Capítulo IV. Resultados y Análisis maximum likelihood" o MLE), se observa como la distribución que tiene un ajuste optimo seria la distribución Weibull. Tabla 6. Ajuste Analítico ordenado por Log_Likelihood distribution param1 param2 Log_Likelihood ks stat ks pvalue [1,] "weibull" "0.638" "40.168" " " "0.083" " " [2,] "gamma" "0.516" "0.009" " " "0.077" " " [3,] "lognormal" "2.782" "1.922" " " "0.119" " " [4,] "exponential" "0.018" "NA" " " "0.221" " " [5,] "normal" "55.058" "75.564" " " "0.234" " " [6,] "poisson" "55.058" "NA" "-Inf" "0.583" "0" Estimación Grafica Paramétrica Una que se ha realizado el estudio comparativo de las observaciones con distintas distribuciones y encontrarse la distribución de Weibull como la óptima en el ajuste a las observaciones. A continuación se llevara a cabo la estimación gráfica de los parámetros del modelo propuesto. La base de estos métodos gráficos es estimar la función de distribución empírica de los datos y representarla en unas escalas tales que si el modelo elegido es el correcto, los datos presenten un aspecto lineal. Este tipo de herramientas gráficas son aplicables tanto para muestras completas como para muestras censuradas según indicado en el apartado teórico ( Linealización de la f.d. asociada a una distribución Weibull). En la actualizar los programas informáticos permiten realizar este proceso de forma rápida y sencilla. En el Apéndice 4, apartado Estimación Grafica Paramétrica se muestra la programación la programación realizada en R, obteniéndose los resultados de la regresión lineal y el grafico de probabilidad para distribución weibulll con respecto a las observaciones. En la figura 65 se muestra como las la nube de puntos de las observaciones con respecto a su recta de regresión asociada sigue un patrón bastante lineal, por lo cual es coherente pensar que las observaciones puedan seguir una distribución Weibull, pero hay que indicar como a la izquierda de la recta existe una cola de datos hacia abajo lo que es indicativo de la existencia de un valor en el parámetro de localización y para que los cálculos estuvieran ajustados habría que realizar este estudio de forma triparamétrica. Se obviara la consideración anterior y se seguirá analizando los datos para una distribución Weibull biparamétrica. IV.17

151 Capítulo IV. Resultados y Análisis Figura 65. Gráfico de Probabilidad de Weibull Se puede observar como para un parámetro de forma β = 1, que correspondería con un valor del 63.2 % de la Función Acumulada de Fallos (eje y), este cortaría a recta de regresión en un punto que daría un valor de Tiempo de Fallo (eje x), que sería el valor de la escala η, siendo en este caso de 40 días aproximadamente. t 1 1 F t,, 0 1 e 1 e % 1 e En la figura 66, se presenta un gráfico similar al anterior pero en escala diferente para poder realizar de una forma más sencilla el cálculos de los parámetros de la distribución, el valor de β vendría dado a través del cálculo de la pendiente de la recta, siendo este el ángulo que forma la línea horizontal del eje y con valor 0 y la proyección del valor más elevado sobre la recta (color verde) y la proyección en el eje x del punto de la línea con y=0. Matemáticamente seria β =y/x= 1.5/(6-3.7)= Para la escala η, a través de la ordenada en el origen y considerando que η=exp(-b/β), b seria el valor en el eje y para x=0, en la figura muestra un valor aproximado de -2.33, por tanto se tendrá que η=exp(-b/β) = exp(-(-2.3)/ ) = Por tanto, los valores de los parámetros de la distribución de Weibull que se ajustan a las observaciones serian Forma β = Escala η = Y la recta de regresión para esta estimación vendría dada por y = x. IV.18

152 Capítulo IV. Resultados y Análisis Figura 66. Gráfico de Probabilidad para obtención de parámetros de la distribución de Weibull En la figura 67 se muestra un resumen de ajuste con cuatro gráficas, la primera un histograma con la curva de la función de densidad, una gráfica con la función acumula de probabilidad o función de distribución de las distribuciones empicas y teóricas, el Grafico Q-Q (grafico de cuantiles) y el grafico P-P de probabilidad. En el grafico Q-Q se observa la falta de ajuste en la cola superior de la distribución y en el grafico P-P no se observa falta de ajuste en su parte central IV.19

153 Capítulo IV. Resultados y Análisis Figura 67. Gráfico de ajuste a una distribución de Weibull Finamente, en la figura 68 se presenta una revisión de los residuos o errores del ajuste realizado. En la gráfica Residual & Fitted se observa un agrupamiento en una zona del gráfico y valores dispersos en el lado izquierdo, por lo que tanto la homocedasticidad como la linealidad podrían tener cierto problema. Mediante el Q-Q plot se puede comprobar la hipótesis de normalidad de los residuos, los puntos no están situados sobre la diagonal del gráfico, estando bien alineados en el lado derecho, pero no así en el izquierdo. Por lo tanto, la normalidad parece no aceptable. En la gráfica Residuals Vs. Leverag se presenta el cálculo de hasta qué punto los valores predichos para los datos se mueven si el modelo fuera ajustado sin el punto de datos en cuestión. Esta distancia total calculada se denomina distancia de Cook, donde hay 1 punto con una distancia mayor de 1 y otro muy cercano a 0.5. Figura 68. Gráfico de evaluación de residuos Estimación Puntual La estimación puntual consiste en obtener, a partir de las observaciones, un valor que se aproxime al verdadero valor (desconocido) del parámetro de interés. IV.20

154 Capítulo IV. Resultados y Análisis Estimación por Mínimos Cuadrados Las estimaciones mínimo cuadráticas se calculan ajustando una recta de regresión a los puntos de un conjunto de observaciones que tiene la suma mínima de las desviaciones al cuadrado (error de mínimos cuadrados). La estimación de los parámetros de Weibull por este método se realizara según se indicó en la parte teórica y la realización practica de estimación de parámetros mediante funciones en R, (apéndice 4, apartado ). Los parámetros de la ecuación de la recta de mínimos cuadrados que relaciona la variable independiente con la variable dependiente vienen dados como resultado de la regresión lineal por: Coefficients: (Intercept) X Por lo tanto, la ecuación de la recta de mínimos cuadrados seria y = x. Obteniéndose los siguientes valores para los parámetros después del cálculo realizado Forma β = Escala η = Estimación por Máxima Verosimilitud La función de verosimilitud indica la probabilidad de que la muestra observada sea una función con ciertos parámetros. Por lo tanto, la maximización de la función de probabilidad determina los parámetros que son más propensos a producir los datos observados. Desde un punto de vista estadístico. En el caso de distribuciones como la de Weibull con más de un parámetro, la aplicación del método de la Máxima Verosimilitud se complica al hecho de que en la búsqueda de los máximos locales se deben considerar derivadas parciales con respecto a cada variable y, además, a que el sistema resultante de igualar las derivadas parciales a cero no es sencillo. La estimación por este método se realizara según se indicó en la parte teórica y la realización practica de estimación de parámetros mediante funciones en R, (apéndice 4, apartado ) Estimaciones para Observaciones Completas Librería fitdistrplus Se recurre a la función fitdist de la librería fitdistrplus de que permitirá el cálculo de los parámetros a una distribución de Weibull por máxima verosimilitud. Obteniendo la siguiente información sobre los valores de los parámetros Forma β = Escala η = IV.21

155 Capítulo IV. Resultados y Análisis Librería Renext Mediante la función fweibull de la librería Renext se puede calcular las estimaciones por máxima verosimilitud de los parámetros de la distribución Weibull para muestras completas. Los valores de los parámetros serian: Forma β = Escala η = Estimaciones para Observaciones con Censura Mediante la función weibullmle de la librería START, es posible calcular las estimaciones por el método de máxima verosimilitud de los parámetros de la distribución Weibull y realizar las estimaciones tanto para muestras completas como para muestras con censura tipo II. En el caso de muestras completas el argumento si se definirá como numeric(length(yi))+1, que es el valor por defecto, pero en el caso de muestras censuradas (censura tipo II), se reordenara la muestra con el comando sort y se definirá si como c(rep(1,r),rep(0,n-r)), por lo que tendremos una muestras ordenada con r datos no censurados y n - r datos censurados. Los valores que devuelve esta función son los siguientes: Forma β = Escala η = Estimación por Momentos Este método obtiene los para metros de la distribución mediante la obtención de un cierto número de momentos teóricos de la distribución de la población e igualarlos con los momentos de las observaciones. La estimación por este método se realizara según se indicó en la parte teórica y la realización practica de estimación de parámetros mediante funciones en R, (apéndice 4, apartado ). Mediante la función pelwei del paquete lmon es posible realizar el cálculo de los parámetros de la distribución mediante el método de momentos, se ha seleccionado para el primero y segundo. Con la indicación de bound=000, el cálculo se realiza forzando el parámetro de localización a 0. Los parámetros obtenidos serían los siguientes: Forma β = Escala η = Estimación de Parámetros por Intervalos. A diferencia de lo que ocurre con la estimación puntual, la estimación por intervalos ofrece información sobre la exactitud de la estimación. Ello es debido a que este tipo de estimación proporciona un intervalo dentro del cual hay una alta probabilidad (nivel de confianza) de que esté contenido el verdadero valor del parámetro. IV.22

156 Capítulo IV. Resultados y Análisis Estimación por Mínimos Cuadrados La estimación de parámetros por intervalos se realizara según se indicó en la parte teórica ( ) y la realización practica mediante R, (apéndice 4, apartado ). Obteniendo un valor de forma β = y de escala η = = , teniendo los siguientes límites con un intervalo de confianza del 95%: β 2.5% β 97.5% η 2.5% η 97.5% En la figura 69 se muestra la gráfica de regresión lineal mínimo cuadrática con los intervalos de confianza y predicción al 95% para valores originales de tiempo (rojo). También están representados los intervalos de confianza y predicción al 95% para nuevos valores de tiempo (extrapolados y más finamente/uniformemente espaciados que los datos originales) (azul). Los intervalos más estrechos corresponderían a los intervalos de confianza al 95% para los valores esperado de los tiempos de fallo, mientras que los intervalos más amplios corresponderían a los valores de las observaciones de los tiempos de fallo. Estas diferencias son debidas a la varianza del error producida por las perturbaciones. Figura 69. Intervalos de Confianza y Predicción al 95% IV.23

157 Capítulo IV. Resultados y Análisis Estimación por Máxima Verosimilitud El cálculo de las varianzas de ˆ y ˆ es complejo, ya que involucra el cálculo de la inversa de la matriz de derivadas segundas del logaritmo de la función de verosimilitud. La mayoría de programas estadísticos sobre fiabilidad disponen de rutinas que calculan estas varianzas. La estimación por este método se realizara según se indicó en la parte teórica y la realización practica mediante R, (apéndice 4, apartado ). Dentro de la librería Sim.DiffProc se encuentra la función Ajdweibull, que proporcionará intervalos de confianza para el modelo Weibull, cuando se trabaje con muestras de datos no censuradas Para unos valores de los parámetros de forma β = y de escala η = = , teniendo los siguientes límites con un intervalo de confianza del 95%: β 2.5% β 97.5% η 2.5% η 97.5% Estimación por Momentos Mediante la librería rootsolve y una aplicación R, (apéndice 4, apartado ), ha sido posible la estimación de intervalos para los parámetros de una distribución de Weibull con bootstraping (10000). Obteniéndose los siguientes límites para un intervalo de confianza del 95% y con unos valores de los parámetros de forma β = y de escala η = = : β 2.5% β 97.5% η 2.5% η 97.5% Comparación de Métodos de Estimación de Parámetros. Después de haber realizado la estimación de parámetros de Weibull mediante diversos métodos (métodos gráficos y analíticos), sería necesario evaluar a raíz de los resultados cual sería el método más apropiado. Para comparar los tres métodos, se utilizó la prueba MSE (Mean Squared Error) mediante una función en R. (apéndice 4, apartado 2.3.4). MSE se ha calculado de la siguiente forma donde n i1 ˆ 2 i i MSE F x F x ˆ x i ˆ 1 e y Fx ˆF x i i i 0. 3 n 0. 4 La Tabla 7 muestra los resultados de las estimaciones para los parámetros de forma y escala y el error cuadrático medio (MSE) para cada método. IV.24

158 Capítulo IV. Resultados y Análisis Tabla 7.Resultados del Estudio Comparativo de Parámetros Método MSE Estimación No Paramétrica - (Lib. Survival -MLE) β = η = Análisis Paramétrico - Estimación Grafica Paramétrica β = η = Estimación Puntual 1. Estimación por Mínimos Cuadrados - LSM β = η = Estimación por Máxima Verosimilitud - MLE 2.1. Observaciones Completas Librería fitdistrplus β = η = Librería Renext β = η = Observaciones con Censura - Lib. START β = η = Estimación por Momentos - MOM β = η = En la tabla 8, se presentan los resultados ordenados por MSE de menor a mayor. La estimación por LSM por mínimos cuadrados es la que presenta un menor MSE, para unos valores de β = y η = Tabla 8.Resultados Ordenados del Estudio Comparativo de Parámetros Método MSE LSM - Est. por Mínimos Cuadrados MLE - Obs. con Censura - Lib. START MLE - Obs. Completas - lib. Renext MLE - Est. No Paramétrica - Lib. Survival MLE - Obs. Completas - lib. fitdistrplus MOM - Est. por Momentos Estimación Grafica IV.25

159 Capítulo IV. Resultados y Análisis Inicialmente podría pensarse que carece de sentido que el método de momentos fuera el peor evaluado, podría haber ocurrido algún error de cálculo debido a su uso o errores internos de la librería lmon, la cual fue desarrollada para funciones de 3 parámetros, ya que tiene más error que la estimación gráfica. Por tanto, para los valores y la cantidad de observaciones (80) se ha propuesto como los parámetros que provienen del estudio de mínimos cuadrados como los más acertados para la distribución de Weibull. Para poder evaluar si los métodos y cálculos han sido los acertados, se han comparado los resultados con programas como Minitab y Statgraphics Centurion XVI, se encuentra que ambos programas utilizan MLE y las estimaciones que se han realizado en los cálculos mediante MLE son muy similares a las ofrecidas por los programas comerciales, según se muestra en la tabla 9. Tabla 9.Resultados de Análisis en Programas Comerciales Programa Método Forma β Escala η Minitab MLE Statgraphics Centurion MLE La diferencia que se tiene con respecto a los programas comerciales, es el de disponer de diferentes estimaciones para los diferentes métodos y la capacidad de elegir una de ellas. En resumen el orden de los métodos basados en su exactitud para esta aplicación y con las funciones y aplicaciones realizadas en R, seria: Método de Mínimos Cuadrados LSM. Método de Máxima Verosimilitud MLE. Método de los Momentos MOM Método gráfico Bondad de Ajuste El test de bondad de ajuste debe ser usado con cuidado. Como para cualquier test de hipótesis nula, el no rechazo de la hipótesis nula no implica su aceptación. Sin embargo, está mal interpretación del p-value es muy común y trae la aceptación errónea que la ausencia de evidencia es evidencia de ausencia. En el lado contrario, en algunos casos, especialmente en grandes conjuntos de datos, incluso si la hipótesis nula se rechaza, una distribución ajustada puede ser elegida como la más adecuada entre las distribuciones teóricas para describir una distribución empírica, si el grafico de bondad de ajuste no muestran unas fuertes diferencias entre las distribuciones empírica y teórica. IV.26

160 Capítulo IV. Resultados y Análisis Test de Bondad de Ajuste para Mínimos Cuadrados Interpretación de los Resultados En la tabla 10 se indican los resultados aportados mediante diversos comandos en R. (apéndice 4, apartado ). Los parámetros de la ecuación de la recta de mínimos cuadrados que relaciona la variable independiente con la variable dependiente vienen dados por la columna Estimate de la tabla Coefficients. Por lo tanto, la ecuación de la recta de mínimos cuadrados seria y = x El coeficiente de determinación (es decir, el coeficiente de correlación al cuadrado) mide la bondad del ajuste de la recta a los datos. A partir de los datos de la tabla, se muestra que su valor en este caso es Multiple R-squared = , por tanto el estadístico R 2 indica que el modelo ajustado explica 96.8% de la variabilidad en Y. Si suponemos que los datos proceden de un modelo de regresión simple de la forma y i = β 0 + β 1 x i + ϵ i, i=1,, n, donde los errores aleatorios ϵ i son independientes con distribución normal de media 0 y varianza σ 2. Bajo este modelo, Los errores típicos de los estimadores de los parámetros β 0 y β1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores son y respectivamente. La columna t value contiene el estadístico t, es decir, el cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes H 0: β 0 = 0 y H a: β 1 0. Los correspondientes p-valores aparecen en la columna Pr(> t ).Puesto que el P-value es menor que 0.05, existe una relación estadísticamente significativa entre y=ln(-ln(1-f(t))) y x=ln(t) con un nivel de confianza del 95.0%. El estimador de la desviación típica de los errores σ aparece como Residual standard error y su valor en el ejemplo es Tabla 10. Resultados de la Regresión Lineal Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 *** X <2e-16 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 78 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 2387 on 1 and 78 DF, p-value: < 2.2e-16 IV.27

161 Capítulo IV. Resultados y Análisis ANOVA y Test de Independencia Lineal Análisis de Varianza del Modelo de Regresión Lineal En la tabla 11 se muestra que el P-value es menor que 0.05, existe una relación estadísticamente significativa entre Y y X con un nivel de confianza del 95.0%. Analysis of Variance Table Tabla 11. Análisis de la Varianza de la Regresión Lineal Response: Y(RM) Df Sum Sq Mean Sq F value Pr(>F) X < *** Residuals Signif. codes: 0 *** ** 0.01 * Test de Independencia Lineal y Correlación Lineal En la tabla 12 se muestra el estadístico de correlación de Pearson que examina las relaciones entre las variables, obteniéndose que el P-value es menor que 0.05, se rechaza la hipótesis nula, por tanto hay indicios de que la correlación no es igual a cero con un nivel de confianza del 95.0%. El coeficiente de correlación es igual a , indicando una relación muy fuerte entre las variables. Tabla 12. Test de independencia y correlación lineal Pearson's product-moment correlation data: tabla1$x and tabla1$y.rm. t = , df = 78, p-value < 2.2e-16 alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: sample estimates: cor Test de la Bondad Mediante Estadísticos El test se realizara según se indicó en la parte teórica y la realización practica mediante la aplicación desarrollada en R. (apéndice 4, apartado ), donde se ha usado la función gofstat del paquete fitdistrplus se realiza la estimación de la bondad de ajuste para distribuciones continuas mediante los estadísticos de Cramer-von Mises, Kolmogorov-Smirnov y Anderson-Darling. Para conjunto de observaciones de n > 5 y distribuciones continuas, los test de Cramer-von Mises y Anderson-Darling se realizan sin conocimiento de los parámetros de la distribución. El resultado será la decisión de rechazar o no la distribución teórica con un nivel de significancia de Ambos test se realizan por máxima verosimilitud. IV.28

162 Capítulo IV. Resultados y Análisis Para el ajuste de distribuciones discretas será utilizado con la misma función el estadístico chicuadrado pero con el argumento chisqbreaks o meancount. También se ha usado la función test_ks_dweibull del paquete Sim.DiffProc que realizara el test de Kolmogorov Smirnov para contrastar la hipótesis si un conjunto de datos sigue o no un modelo de distribución Weibull. Se ha definido en la aplicación realizada realizar el test de chi-cuadrado para muestras mayores de 30. Pero se ofrecen los estadísticos de Cramer-von Mises, Kolmogorov-Smirnov y Anderson-Darling, así como la posibilidad de realidad fuera de la aplicación el test de contraste de Kolmogorov Smirnov. En la tabla 13 se indican los resultados aportados por la aplicación desarrollada para los parámetros obtenidos en el apartado Comparación de Métodos de Estimación de Parámetros, donde fueron seleccionados los parámetros con menor error cuadrático medio (MSE) correspondiente a la estimación por Mínimos Cuadrados - LSM, siendo para la forma β = y para la escala η = Se puede observar como el valor del estadístico obtenido de ks es de , comparándolo con el establecido en la tabla para un nivel de significación de 5% y una muestra de 80 (tabla K-S) se tendrá un valor de D(0.05,80)=1.36/(raiz2(80))= Dado que el estadístico (0.0833) es menor que el valor de la tabla (0,1521), no se puede rechazar la hipótesis de que las observaciones no sigan la distribución teórica. Igualmente, si se analiza el resultado del test de chi-cuadrado, el p-valor es mayor que el nivel de significancia de 0.05., Por tanto no se puede rechazar la idea de que los datos provienen de una distribución Weibull con 95% de confianza. Tabla 13. Estadísticos de ajuste y test chi-cuadrado Kolmogorov-Smirnov statistic: Cramer-von Mises statistic: Anderson-Darling statistic: n shape scale chi.chisqpvalue Resultados Se ACEPTA la hipotesis nula p-valor > 0.05 (nivel de significancia). Los datos siguen una distribución de Weibull segun test Chi-cuadrado. En la tabla 14 se indican los resultados aportados por el test individual procedentes de la librería, Sim.DiffProc, donde el estadístico es diferente al presentado para k-s anteriormente, pero en ambos casos el estadístico obtenido es menor que el valor de la tabla (0,1521), por lo que no se puede rechazar la hipótesis de que las observaciones no sigan la distribución teórica. Así, mismo el resultado del p-valor es mayor que el nivel de significancia de 0.05., Por tanto no se puede rechazar la idea de que los datos provienen de una distribución Weibull con 95% de confianza. Tabla 14. Test de Ajuste de Kolmogorov-Smirnov One-sample Kolmogorov-Smirnov test data: X D = , p-value = alternative hypothesis: two-sided IV.29

163 Capítulo IV. Resultados y Análisis Propiedades de Fiabilidad Se han obtenido los parámetros óptimos que representan las observaciones para una distribución de Weibull y se ha verificado la bondad del ajuste, quedaría la obtención de las diversas funciones que representarían adecuadamente a las observaciones. Esto se realizara mediante una aplicación en R (Apéndice 4, apartado 2.3.6) Función de Densidad f(t) La expresión matemática de la función de densidad para la distribución de Weibull de las observaciones vendría dada por: f t 1 t t t t e e Como se muestra en la figura 70, esta es una función creciente y tiende a 0 cuando el tiempo de fallo tiende a.la probabilidad de fallo vendría indicada por el área delimitada entre el eje de abscisas, la línea curva y el punto de ordenadas o tiempo de fallo. A un mayor tiempo de fallo, se tendría una mayor probabilidad de fallo. Para tiempos bajos de fallo, se tiene un área elevada, indicando una alta probabilidad de fallo debido a una alta mortalidad infantil. El área total bajo la curva en un tiempo de fallo infinito sería de 1. Figura 70. Función de Densidad IV.30

164 Capítulo IV. Resultados y Análisis Función de Distribución F(t). Esta función estaría matemáticamente representada mediante la expresión: t t t F t f t dt 1 e 1 e Como se observa en la figura 71, esta es una función es creciente y tiende a 1 cuando el tiempo de fallo tiende a. Siendo esta una función acumulada de probabilidad crece muy rápidamente, teniendo aproximadamente un 80% de posibilidad de fallo a los 80 días. La probabilidad de ocurrencia de un fallo en un intervalo de tiempo t 1 - t 2 pata t 2 > t 1 seria F t2 - F t1. Figura 71. Función de Distribución Función de Fiabilidad R(t) o Supervivencia S(t). La expresión matemática que definiría esta función seria t t R t 1 F t e e En la figura 72 se puede observar como esta función decreciente y tiende a 0 cuando t. Esta función representa la probabilidad de sobrevivir sin fallos a un tiempo en días. La información que ofrece esta grafica es similar a la función de distribución pero en lugar de tiempos de fallo seria de tiempos de supervivencia. IV.31

165 Capítulo IV. Resultados y Análisis Figura 72. Funciones de Fiabilidad o Supervivencia Función de Riesgo o Tasa de Fallo h(t). Es una función está muy afectada por la variación de la forma β, observándose en su expresión matemática h t t f t t t R Y en la figura 73 se muestra cómo evoluciona con el tiempo el riesgo de fallo. Como se describió en el apartado teórico al estar comprendido el valor de β entre 0 y 1, la función de riesgo es decreciente, disminuyendo la tasa de fallo al aumentar el tiempo. También se observa una zona de al comienzo del tiempo en la que existe un alto riesgo de fallo debido a la mortalidad infantil, pero con el paso del tiempo decrece el riesgo de fallo. No se detecta una zona de envejecimiento o desgaste, en la que un aumento del tiempo llevaría un aumento del riesgo o la tasa de fallo. IV.32

166 Capítulo IV. Resultados y Análisis Figura 73. Función de Riesgo o Tasa de Fallo Función de Riesgo Acumulado H(t). La expresión matemática de la función de riesgo acumulado vendría dada por: H t t t o. también podría definirse como Ht ln Rt Esta función puede indicar diversos relacionados con la distribución: Si H(t) es lineal en t entonces la función tasa de fallos o función de riesgo h(t), es constante. Si H(t) es convexa con derivada primera creciente en t entonces la función tasa de fallos o función de riesgo h(t), es creciente. Si H(t) es convexa con derivada primera decreciente en t entonces la función tasa de fallos o función de riesgo h(t), es decreciente. En la figura 74 se muestran cómo aunque parecería seguir una forma lineal, se observa como al inicio de la gráfica cierta curvatura en el sentido de una función convexa con derivada decreciente, lo que explicaría la forma decreciente de la función tasa de fallos. IV.33

167 Capítulo IV. Resultados y Análisis Figura 74. Función de Riesgo Acumulado Media o Esperanza Matemática θ = E[T]. La expresión matemática y resultado (Apéndice 4, apartado ) para la media del tiempo de fallo o esperanza matemática vendría expresada por: 1 1 E T Donde 1 1 es la función Gamma x, para 1 x Varianza Var[T]. La expresión matemática y resultado (Apéndice 4, apartado ) para la varianza del tiempo de fallo vendría expresada por: Var T p-cuantil La expresión matemática vendría dada por: p. 1 1 t log p log p IV.34

168 Capítulo IV. Resultados y Análisis Análisis Comparativo no Paramétrico y Paramétrico. La comparación de los valores de los parámetros fue realizada en el apartado Comparación de Métodos de Estimación de Parámetros. En las figuras se realiza una exposición resumen de las gráficas más sobresalientes del análisis no paramétricos y paramétrico. Se puede observar una gran similitud entre ellas, aunque se podría indicar las diferencias entre las gráficas de la tasa de reparación h(t), no tendiendo a cero la no paramétrica con la misma intensidad que lo hace la paramétrica Función de Distribución F(t). Figura 75. Función de Distribución F(t) Paramétrica (izq.) y Función no Paramétrica (der.) Función de Fiabilidad R(t) o Supervivencia S(t). Figura 76. Función de Fiabilidad R(t) o Supervivencia S(t) Paramétrica (izq.) y Función no Paramétrica (der.) IV.35

169 Capítulo IV. Resultados y Análisis Función de Riesgo o Tasa de Fallo h(t). Figura 77. Función de Riesgo o Tasa de Fallo h(t) Paramétrica (izq.) y Función no Paramétrica (der.) Función de Riesgo Acumulado H(t). Figura 78. Función de Riesgo Acumulado H(t) Paramétrica (izq.) y Función no Paramétrica (der.) IV.36

170 Capítulo IV. Resultados y Análisis 4.3. Análisis de Mantenimiento del Tiempo de Reparación TTR Análisis Descriptivo EL proceso de análisis se realizara de forma similar al realizado para fiabilidad, pero en este caso la variable continua será el tiempo de reparación en días TTR. En el Apéndice 4, se puede observar el programa realizado en R para el Análisis Exploratorio de datos en el apartado 3.1. En la tabla 15 se muestran los siguientes estadísticos descriptivos obtenidos: Tabla 15. Estadísticos Descriptivos para el Tiempo De reparación TTR > Medidas de centralizacion > summary(time) Min. 1st Qu. Median Mean 3rd Qu. Max > mode > range $range 3 [1] > quantile (time) 0% 25% 50% 75% 100% > Medidas de dispersion > var [1] > sd [1] De las medidas de centralización se puede observar que el tiempo medio fue de días pero el máximo tiempo de reparación de un dispositivo fue de días y el tiempo mínimo fue de día, siendo de días el tiempo más frecuente (3 veces) y de el valor mediano. En el 50% de los casos el tiempo de reparación oscila entre y 0.75 días. Los tiempos se encuentran en un rango de 3.85 días, presentando una dispersión baja con una varianza de y con una desviación típica de , siendo estos valores muy inferiores a los presentados en el estudio de fiabilidad. Estos datos indican que los datos de esta variable continua están menos dispersos respectos a sus valores centrales, lo que supone una representatividad más elevada de los valores de la población. > Medidas de forma (asimetria, curtosis) > skewness [1] > kurtosis [1] La diferencia entre la media y la mediana, así como de la mediana y la moda x Md Mo, reflejara un elevado grado de asimetría hacia la derecha, teniendo la distribución de los datos a la derecha una cola más larga que a la izquierda, quedando ratificado por el coeficiente de asimetría (± 0.5 aprox. para distribución Simétrica). El coeficiente curtosis presenta un valor muy elevado (5.136), la distribución será leptocúrtica (curtosis muy elevada), presentando una alta concentración de valores IV.37

171 Capítulo IV. Resultados y Análisis en la cola de la distribución (± 0.5 aprox. cuando la distribución es Mesocúrtica). Esto se pone claramente de manifiesto en el histograma (Figura 49) con una distribución normal. Se obtiene información más clara de las variables de interés mediante los histogramas de la figura 79 y 80, donde se presenta la frecuencia de los tiempos de reparación. Se puede observar que la mayoría de los dispositivos tienen un tiempo de reparación menor a 0.75 días (3º cuartil) y en general se presenta una duración de la reparación en 0.2 días (mediana), aunque hay algunas unidades que tienen un tiempo entre 0.75 y 3.86 días. La asimetría mencionada anteriormente se debe a las diferencias existentes entre los tiempos de reparación de la mayoría de los dispositivos y 10 dispositivos que tienen un tiempo de reparación extraordinariamente mayor (entre 1.5 y 3.86 días). Figura 79: Histograma de Tiempo de reparación de los Dispositivos. Figura 80. Diagrama de Cajas de Tiempo de Reparación de los Dispositivos. IV.38

172 Capítulo IV. Resultados y Análisis Este ha sido el primer acercamiento a la relación de los tiempos de reparación y su distribución teórica, en la que hay que destacar el alto nivel de dispositivos (40 unidades) con corto tiempo de reparación (entre 0 y 0.2 días), pasando a continuación a una estabilización en los tiempos entre 0.20 y 1.2 días (30 unidades) y a partir de los 1.2 días unos tiempos de reparación muy elevados (10 unidades). La probabilidad de finalizar una reparación en un tiempo corto es muy alta. En general, decrece con el tiempo pero aparecen unos tiempos aleatorios de tiempos de reparación que no siguen una tendencia fija. Por las gráficas anteriores no se detectan irregularidades en la continuidad del posible modelo teórico. Una vez realizado un análisis exploratorio de los datos de los tiempos de reparación, se realizara el análisis paramétrico, el proceso de análisis será modificado con respecto al de fiabilidad, se realizara partiendo de la asumpción que las observaciones se pueden comparar de acuerdo a alguna distribución teórica determinada Análisis Paramétrico Estimación Grafica Los diagramas de cuantiles (Q-Q plots) comparan en un sistema de coordenadas cartesianas, los cuantiles de la distribución teórica (eje X) con los cuantiles muéstrales (eje Y) Este tipo de gráficos muestran la f.d. linealizada de una distribución teórica junto con una nube de puntos que representan estimaciones puntuales de la f.d. de T. Evidentemente, cuanto más se aproxime la nube de puntos a la recta que aparece en el gráfico, tanto mejor será el ajuste. Si se lograse aproximar la distribución de T mediante alguna distribución teórica conocida, sería posible usar esta última para representar gráficamente estimaciones de la función de distribución. En la Figura 81 se muestran diagramas de cuantiles para seis distribuciones teóricas (normal, lognormal, Exponencial, Weibull, Gamma, Poisson) de ajuste a los cuantiles de las observaciones, estas han sido realizadas mediante la función "fitdistr" de R (Apéndice 4, apartado Análisis Grafico), los parámetros de la distribución teórica univariante no son fijados y realizándose su estimación por máxima verosimilitud. IV.39

173 Capítulo IV. Resultados y Análisis Figura 81. Modelación de las Observaciones con varias Distribuciones Teóricas Se puede observar varias graficas en como los puntos representados en el gráfico están suficientemente próximos a la recta presentado una distribución Leptocúrtica para las distribuciones pero no es muy clara cuál debería ser la distribución a elegir. En teoría esta técnica descriptiva debería de haber sido suficiente para realizar la discriminación entre la distribución de las observaciones y las diferentes distribuciones teóricas propuestas, pero a la vista de los resultados, no es suficiente. Por lo que se cree conveniente realizar un test analítico que ayude a tomar la decisión de la distribución teórica más acertada (aunque conociendo que no formaría parte de este apartado de estimación grafica). La idea inicial seria realizar un test de bondad de ajuste y observar el resultado del estadístico. Se ha optado realizar el test de Kolmogorov-Smirnov mediante la función "fitdistr" en R (Apéndice 4, apartado Ajuste Analítico Preliminar), se trata de un test que analiza la diferencia entre las IV.40

174 Capítulo IV. Resultados y Análisis frecuencias relativas acumuladas de las distribuciones teórica y empírica. En la tabla 16 se indican los resultados obtenidos: Tabla 16. Ajuste Analítico ordenado por Ks stat distribution param1 param2 Log_Likelihood ks stat ks pvalue [1,] "lognormal" "-1.423" "1.377" " " "0.093" " " [2,] "weibull" "0.77" "0.481" " " "0.127" " " [3,] "gamma" "0.7" "1.225" " " "0.15" " " [4,] "exponential" "1.75" "NA" " " "0.231" " " [5,] "normal" "0.572" "0.786" " " "0.238" " " [6,] "poisson" "0.572" "NA" "-Inf" "0.565" "0" Si son observados los valores del estadístico de K-S, los cuales habría que comparar con el establecido en la tabla K-S D 0.05, 80 =1.36/ 80 = para un nivel de significación de 5% y una muestra de 80 observaciones, se tendría que dado que el estadístico de las distribuciones Lognormal, Weibull y Gamma son menores que el valor de la tabla (0.1521) no se puede rechazar la hipótesis de que las observaciones sigan la distribución teórica. Por tanto, el uso del estadístico K-S o el K-S p-value no es suficiente ((P-value mayores de 0.05 indicarían que las observaciones proviene de la distribución seleccionada con 95% de confianza), ya que es un test muy conservador y no indica claramente la distribución óptima. Pero si analizamos los resultados ordenados en la tabla 17 para el estadístico de log verosimilitud (no es más que el logaritmo de la verosimilitud para la estimación de los parámetros de una distribución de probabilidad mediante el "método de máxima verosimilitud" (en inglés "method of maximum likelihood" o MLE), se observa como la distribución que tiene un ajuste más óptimo sería la distribución Lognormal. Tabla 17. Ajuste Analítico ordenado por Log_Likelihood distribution param1 param2 Log_Likelihood ks stat ks pvalue [1,] "lognormal" "-1.423" "1.377" " " "0.093" " " [2,] "weibull" "0.77" "0.481" " " "0.127" " " [3,] "gamma" "0.7" "1.225" " " "0.15" " " [4,] "exponential" "1.75" "NA" " " "0.231" " " [5,] "normal" "0.572" "0.786" " " "0.238" " " [6,] "poisson" "0.572" "NA" "-Inf" "0.565" "0" Estimación Grafica Paramétrica Una que se ha realizado el estudio comparativo de las observaciones con distintas distribuciones y encontrarse la distribución lognormal como la óptima en el ajuste a las observaciones. Se ha de indicar que una variable aleatoria t k de una muestra aleatoria t 1, t 2,..., t k se distribuye como una lognormal de parámetros a y b, cuando los logaritmos naturales de dichas variables ln(t 1), ln(t 2),.., ln(t k) se describen mediante una distribución normal con media μ y desviación estándar σ finita. La transformación Y= ln(t) produciría una variable aleatoria normal con una media de ln(a) = μ IV.41

175 Capítulo IV. Resultados y Análisis y una desviación estándar de b = σ. El análisis de los medibles de fiabilidad se realiza con la estimación de los parámetros μ y σ de la distribución log-normal bajo el ln(t). Cuando un ajuste sea válido (mayor de 0.95 para el coeficiente de correlación en la regresión lineal), la función de densidad de la distribución que representaría los datos, tendría la forma: 2 1 ln t 2 1 f t e t 0 t 2 Donde μ y σ se corresponden con la media y la desviación típica del logaritmo de los tiempos de reparación. La función de no reparabilidad para una variable aleatoria con distribución lognormal, se puede escribir como: R t ln t donde φ es la función de distribución estándar. La linealización de la función de no reparabilidad (supervivencia) de la distribución log-normal vendría dada por: ln t Rt 1 F t 1 F pi donde φ -1 se corresponde con los cuantiles de la distribución normal estándar. Por tanto, los datos observacionales siguen una distribución lognormal, si los puntos: 1 i , lnt n 0. 4 Para i = 1, 2,, 80 están en secuencia. Podemos estimar, además, los parámetros μ y σ a través de la pendiente de la recta, 1/σ y la ordenada en el origen, μ/σ. Debido a la relación R t ln t es posible hallar las distintas medidas de fiabilidad a través de la estimación de los parámetros μ y σ. Se llevara a cabo la estimación gráfica de los parámetros del modelo propuesto. La base de estos métodos gráficos es estimar la función de distribución empírica de los datos y representarla en unas escalas tales que si el modelo elegido es el correcto, los datos presenten un aspecto lineal. En la actualizar los programas informáticos permiten realizar este proceso de forma rápida y sencilla. En el Apéndice 4, apartado , se muestra la programación realizada en R, obteniéndose los resultados de la regresión lineal y el grafico de probabilidad para distribución lognormal con respecto a las observaciones. IV.42

176 Capítulo IV. Resultados y Análisis En la figura 82 se muestra como las la nube de puntos de las observaciones con respecto a su recta de regresión asociada sigue un patrón bastante lineal, por lo cual es coherente pensar que las observaciones puedan seguir una distribución lognormal, pero hay que indicar como a la izquierda de la recta existe una cola de datos hacia abajo lo que es indicativo de la existencia de un valor en el parámetro de localización y para que los cálculos estuvieran ajustados habría que realizar este estudio de forma triparamétrica. Se obviara la consideración anterior y se seguirá analizando los datos para una distribución Lognormal biparamétrica. Figura 82. Gráfico de Linealización de la Función de no Reparabilidad Observando la figura anterior, se pueden realizar los cálculos de los parámetros de la distribución, el valor de σ vendría dado a través del cálculo de la inversa de la pendiente de la recta, siendo está pendiente formada por la línea horizontal del eje y con valor 0 y la proyección del valor más elevado sobre la recta (color verde) y la proyección en el eje x del punto de la línea con y=0. Matemáticamente seria a = 1/σ = y/x= 2.4/( )= , por lo que σ = La media μ se obtendría a través de la ordenada en el origen y considerando que μ = b*σ, b seria el valor en el eje y para x=0, en la figura muestra un valor aproximado de -1, se tendrá que μ = b*σ = -1*1.375 = Por tanto, los valores de los parámetros de la distribución de Lognormal que se ajustan a las observaciones serian Des. Estand. σ = Media μ = y la recta de regresión para esta estimación vendría dada por y = x. IV.43

177 Capítulo IV. Resultados y Análisis En la figura 83 se muestra un resumen de ajuste con cuatro gráficas, la primera un histograma con la curva de la función de densidad, una gráfica con la función acumula de probabilidad o función de distribución de las distribuciones empicas y teóricas, el Grafico Q-Q (grafico de cuantiles) y el grafico P-P de probabilidad. En el grafico Q-Q se observa la falta de ajuste en la cola superior de la distribución y en el grafico P-P no se observa falta de ajuste en su parte central. Figura 83. Gráfico de ajuste a una distribución Lognormal Estimación Puntual La estimación puntual consiste en obtener, a partir de las observaciones, un valor que se aproxime al verdadero valor (desconocido) del parámetro de interés Estimación por Mínimos Cuadrados Las estimaciones mínimo cuadráticas se calculan ajustando una recta de regresión a los puntos de un conjunto de observaciones que tiene la suma mínima de las desviaciones al cuadrado (error de mínimos cuadrados). La estimación de los parámetros de Lognormal por este método se realizara según se indicó en el apartado y la realización practica de estimación de parámetros mediante funciones en R, (Apéndice 4, apartado ). Los parámetros de la ecuación de la recta IV.44

178 Capítulo IV. Resultados y Análisis de mínimos cuadrados que relaciona la variable independiente con la variable dependiente vienen dados como resultado de la regresión lineal por: Coefficients: (Intercept) X Por lo tanto, la ecuación de la recta de mínimos cuadrados seria y = x. Obteniéndose los siguientes valores para los parámetros después del cálculo realizado Des. Estand. σ = Media μ = Estimación por Máxima Verosimilitud La maximización de la función de probabilidad determina los parámetros que son más propensos a producir los datos observados. La estimación por este método se realizara según se indicó en la parte teórica y la realización practica de estimación de parámetros mediante funciones en R, (Apéndice 4, apartado ) Estimaciones para Observaciones Completas La función fitdist de la librería fitdistrplus será la que permitirá el cálculo de los parámetros a una distribución de Lognormal por máxima verosimilitud. Obteniendo la siguiente información sobre los valores de los parámetros Des. Estand. σ = Media μ = Estimaciones para Observaciones con Censura Mediante la función lnormmle de la librería START, es posible calcular las estimaciones por el método de máxima verosimilitud de los parámetros de la distribución Lognormal y realizar las estimaciones tanto para muestras completas como para muestras con censura tipo II. En el caso de muestras completas el argumento si se definirá como numeric(length(yi))+1, que es el valor por defecto, pero en el caso de muestras censuradas (censura tipo II), se reordenara la muestra con el comando sort y se definirá si como c(rep(1,r),rep(0,n-r)), por lo que tendremos una muestras ordenada con r datos no censurados y n - r datos censurados. Los valores que devuelve esta función son los siguientes: Des. Estand. σ = Media μ = IV.45

179 Capítulo IV. Resultados y Análisis Estimación por Momentos Este método obtiene los para metros de la distribución mediante la obtención de un cierto número de momentos teóricos de la distribución de la población e igualarlos con los momentos de las observaciones. La estimación por este método se realizara según se indicó en la parte teórica y la realización practica de estimación de parámetros mediante funciones en R, (Apéndice 4, apartado ). Mediante la función pelwei del paquete lmon es posible realizar el cálculo de los parámetros de la distribución mediante el método de momentos, se ha seleccionado para el primero y segundo. Con la indicación de bound=000, el cálculo se realiza forzando el parámetro de localización a 0. Los parámetros obtenidos serían los siguientes: Des. Estand. σ = Media μ = Estimación de Parámetros por Intervalos. A diferencia de lo que ocurre con la estimación puntual, la estimación por intervalos ofrece información sobre la exactitud de la estimación. Ello es debido a que este tipo de estimación proporciona un intervalo dentro del cual hay una alta probabilidad (nivel de confianza) de que esté contenido el verdadero valor del parámetro Estimación por Mínimos Cuadrados La estimación de parámetros por intervalos se realizara según se indicó en la parte teórica ( ) y la realización practica mediante R, (Apéndice 4, apartado ). Para un valor de Des. Estand. σ = y de Media μ = , se obtienen los siguientes límites con un intervalo de confianza del 95%: σ 2.5% σ 97.5% μ 2.5% μ 97.5% En la figura 84 se muestra la gráfica de regresión lineal mínimo cuadrática con los intervalos de confianza y predicción al 95% para valores originales de tiempo (rojo). También están representados los intervalos de confianza y predicción al 95% para nuevos valores de tiempo (extrapolados y más finamente/uniformemente espaciados que los datos originales) (azul). Los intervalos más estrechos corresponderían a los intervalos de confianza al 95% para los valores esperado de los tiempos de reparación, mientras que los intervalos más amplios corresponderían a los valores de las observaciones de los tiempos de reparación. Estas diferencias son debidas a la varianza del error producida por las perturbaciones. IV.46

180 Capítulo IV. Resultados y Análisis Figura 84. Intervalos de Confianza y Predicción al 95% Estimación por Máxima Verosimilitud El cálculo de las varianzas de ˆ y ˆ es complejo, ya que involucra el cálculo de la inversa de la matriz de derivadas segundas del logaritmo de la función de verosimilitud. La mayoría de programas estadísticos sobre fiabilidad disponen de rutinas que calculan estas varianzas. La estimación por este método se realizara según se indicó en la parte teórica y la realización practica mediante R, (Apéndice 4, apartado ). Dentro de la librería Sim.DiffProc se encuentra la función Ajdlognorm, que proporcionará intervalos de confianza para el modelo Lognormal, cuando se trabaje con muestras de datos no censuradas Para unos valores de los parámetros de Des. Estand. σ = y de Media μ = , teniendo los siguientes límites con un intervalo de confianza del 95%: σ 2.5% σ 97.5% μ 2.5% μ 97.5% IV.47

181 Capítulo IV. Resultados y Análisis Comparación de Métodos de Estimación de Parámetros. Después de haber realizado la estimación de parámetros de Lognormal mediante diversos métodos (métodos gráficos y analíticos), sería necesario evaluar a raíz de los resultados cual sería el método más apropiado. Para comparar los tres métodos, se utilizó la prueba MSE (Mean Squared Error) mediante una función en R. (Apéndice 4, apartado 3.2.4). MSE se ha calculado de la siguiente forma donde: ˆF t n i1 ˆ 2 i i MSE F x F x lnt y Fx i i 0. 3 n 0. 4 La Tabla 18 muestra los resultados de las estimaciones para los parámetros de forma y escala y el error cuadrático medio (MSE) para cada método. Des. Estand. σ = y de Media μ = , t Tabla 18.Resultados del Estudio Comparativo de Parámetros Método MSE Estimación No Paramétrica - (Lib. Survival -MLE) σ = μ = Análisis Paramétrico - Estimación Grafica Paramétrica σ = μ = Estimación Puntual 1. Estimación por Mínimos Cuadrados - LSM σ = μ = Estimación por Máxima Verosimilitud - MLE 2.1. Observaciones Completas Librería fitdistrplus σ = μ = Observaciones con Censura - Lib. START σ = μ = Estimación por Momentos - MOM σ = μ = En la tabla 19, se presentan los resultados ordenados por MSE de menor a mayor. La estimación por Momentos MOM es la que presenta un menor MSE, para unos valores de σ = y μ = - IV.48

182 Capítulo IV. Resultados y Análisis Los valores de MSE son elevados debido los errores producidos en la aplicación de la distribución normal estándar φ a valores negativos o mayores de 1. Tabla 19.Resultados Ordenados del Estudio Comparativo de Parámetros Método MSE MOM - Est. por Momentos Estimación Grafica MLE - Est. No Paramétrica - Lib. Survival MLE - Obs. Completas - lib. fitdistrplus MLE - Obs. con Censura - Lib. START LSM - Est. por Mínimos Cuadrados Inicialmente podría pensarse que la estimación grafica seria la que tuviera un error más elevado, pero no ha sido así. De todas formas, debido a su variabilidad, las estimaciones de los parámetros por este método podrían dar cualquier resultado, siendo su MSE poco predecible. Por tanto, para los valores y la cantidad de observaciones (80) se ha propuesto como los parámetros que provienen del estudio de estimación por momentos MOM como los más acertados para la distribución de Lognormal. En resumen el orden de los métodos basados en su exactitud para esta aplicación y con las funciones y aplicaciones realizadas en R, seria: Método de los Momentos - MOM Método de Máxima Verosimilitud MLE. Método de Mínimos Cuadrados LSM. Método gráfico Bondad de Ajuste Test de Bondad de ajuste para Mínimos Cuadrados Interpretación de los resultados En la tabla 20 se indican los resultados aportados mediante diversos comandos en R. (Apéndice 4, apartado ). Los parámetros de la ecuación de la recta de mínimos cuadrados que relaciona la variable independiente con la variable dependiente vienen dados por la columna Estimate de la tabla Coefficients. Por lo tanto, la ecuación de la recta de mínimos cuadrados seria y = x El coeficiente de determinación (es decir, el coeficiente de correlación al cuadrado) mide la bondad del ajuste de la recta a los datos. A partir de los datos de la tabla, se muestra que su valor en IV.49

183 Capítulo IV. Resultados y Análisis este caso es Multiple R-squared = , por tanto el estadístico R 2 indica que el modelo ajustado explica 98.12% de la variabilidad en Y. Si suponemos que los datos proceden de un modelo de regresión simple de la forma y i = β 0 + β 1 x i + ϵ i, i=1,, n, donde los errores aleatorios ϵ i son independientes con distribución normal de media 0 y varianza σ 2. Bajo este modelo, Los errores típicos de los estimadores de los parámetros β 0 y β1 se encuentran en la columna Std Error de la salida anterior. En el ejemplo, sus valores son y respectivamente. La columna t value contiene el estadístico t, es decir, el cociente entre cada estimador y su error típico. Estos cocientes son la base para llevar a cabo los contrastes H 0: β 0 = 0 y H a: β 1 0. Los correspondientes p-valores aparecen en la columna Pr(> t ).Puesto que el P-value es menor que 0.05, existe una relación estadísticamente significativa entre y y x con un nivel de confianza del 95.0% para : 1 i 0. 3 y 1 y x ln t n 0. 4 El estimador de la desviación típica de los errores σ aparece como Residual standard error y su valor es de Tabla 20. Resultados de la Regresión Lineal Call: lm(formula = Y(RM) ~ X, data = tabla1) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 *** X <2e-16 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 78 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 4063 on 1 and 78 DF, p-value: < 2.2e ANOVA y Test de independencia lineal Análisis de varianza del modelo de regresión lineal En la tabla 21 se muestra que el P-value es menor que 0.05, existe una relación estadísticamente significativa entre Y y X con un nivel de confianza del 95.0%. IV.50

184 Capítulo IV. Resultados y Análisis Tabla 21. Análisis de la Varianza de la Regresión Lineal Analysis of Variance Table Response: Y(RM) Df Sum Sq Mean Sq F value Pr(>F) X < 2.2e-16 *** Residuals Signif. codes: 0 *** ** 0.01 * Test de independencia lineal y correlación lineal El estadístico de correlación de Pearson (tabla 22) examina las relaciones entre las variables, obteniéndose que el P-value es menor que 0.05, se rechaza la hipótesis nula, por tanto hay indicios de que la correlación no es igual a cero con un nivel de confianza del 95.0%. El coeficiente de correlación es igual a , indicando una relación muy fuerte entre las variables. Tabla 22. Test de independencia y correlación lineal Pearson's product-moment correlation data: tabla1$x and tabla1$y.rm. t = , df = 78, p-value < 2.2e-16 alternative hypothesis: true correlation is not equal to 0 95 percent confidence interval: sample estimates: cor Test de la Bondad Mediante Estadísticos El test se realizara según se indicó en la parte teórica y la realización practica mediante la aplicación desarrollada en R. (Apéndice 4, apartado ), donde se ha usado la función gofstat del paquete fitdistrplus se realiza la estimación de la bondad de ajuste para distribuciones continuas mediante los estadísticos de Cramer-von Mises, Kolmogorov-Smirnov y Anderson-Darling. Para conjunto de observaciones de n > 5 y distribuciones continuas, los test de Cramer-von Mises y Anderson-Darling se realizan sin conocimiento de los parámetros de la distribución. El resultado será la decisión de rechazar o no la distribución teórica con un nivel de significancia de Ambos test se realizan por máxima verosimilitud. Para el ajuste de distribuciones discretas será utilizado con la misma función el estadístico chicuadrado pero con el argumento chisqbreaks o meancount. También se ha usado la función test_ks_dlognorm del paquete Sim.DiffProc que realizara el test de Kolmogorov Smirnov para contrastar la hipótesis si un conjunto de datos sigue o no un modelo de distribución Lognormal. IV.51

185 Capítulo IV. Resultados y Análisis Se ha definido en la aplicación realizada realizar el test de chi-cuadrado para muestras mayores de 30. Pero se ofrecen los estadísticos de Cramer-von Mises, Kolmogorov-Smirnov y Anderson-Darling, así como la posibilidad de realidad fuera de la aplicación el test de contraste de Kolmogorov Smirnov. En la tabla 23 se indican los resultados aportados por la aplicación desarrollada para los parámetros obtenidos en el apartado Comparación de Métodos de Estimación de Parámetros, donde fueron seleccionados los parámetros con menor error cuadrático medio (MSE) correspondiente a la estimación por Momentos MOM, siendo para la desviación estándar de σ = y para la media μ = Se puede observar como el valor del estadístico obtenido de ks es de , comparándolo con el establecido en la tabla para un nivel de significación de 5% y una muestra de 80 (tabla K-S) se tendrá un valor de D(0.05,80)=1.36/(raiz2(80))= Dado que el estadístico ( ) es menor que el valor de la tabla (0,1521), no se puede rechazar la hipótesis de que las observaciones no sigan la distribución lognormal. Igualmente, si se analiza el resultado del test de chi-cuadrado, el p- valor es mayor que el nivel de significancia de 0.05., Por tanto no se puede rechazar la idea de que los datos provienen de una distribución Lognormal con 95% de confianza. Tabla 23. Estadísticos de ajuste y test chi-cuadrado Kolmogorov-Smirnov statistic: Cramer-von Mises statistic: Anderson-Darling statistic: n meanlog sdlog chi.chisqpvalue Resultados Se ACEPTA la hipotesis nula p-valor > 0.05 (nivel de significancia). Los datos siguen una distribución de Lognormal segun test Chi-cuadrado. En la tabla 24 se indican los resultados aportados por el test individual procedentes de la librería, Sim.DiffProc ( ), donde el estadístico es diferente al presentado para ks anteriormente, pero en ambos casos el estadístico obtenido es menor que el valor de la tabla (0,1521), por lo que no se puede rechazar la hipótesis de que las observaciones no sigan la distribución teórica. Así, mismo el resultado del p-valor es mayor que el nivel de significancia de 0.05., Por tanto no se puede rechazar la idea de que los datos provienen de una distribución Lognormal con 95% de confianza. Tabla 24. Test de Ajuste de Kolmogorov-Smirnov One-sample Kolmogorov-Smirnov test data: X D = 0.113, p-value = alternative hypothesis: two-sided IV.52

186 Capítulo IV. Resultados y Análisis Propiedades del Mantenimiento Se han obtenido los parámetros óptimos que representan las observaciones para una distribución de Lognormal y se ha verificado la bondad del ajuste, quedaría la obtención de las diversas funciones que representarían adecuadamente a las observaciones. Esto se realizara mediante una aplicación en R (Apéndice 4, apartado 3.2.6) Función de Densidad de Probabilidad de Reparación f(t) La expresión matemática de la función de densidad para la distribución de Lognormal de las observaciones vendría dada por: 2 1 ln 1 ln t t f t e e t 2 t Como se muestra en la figura 85, esta es una función decreciente y tiende a 0 cuando el tiempo de reparación tiende a.la probabilidad de reparación vendría indicada por el área delimitada entre el eje de abscisas, la línea curva y el punto de ordenadas o tiempo de reparación. A un mayor tiempo de reparación, se tendría una mayor probabilidad de reparación. Para tiempos bajos de reparación, se tiene un área elevada, indicando una alta probabilidad de reparación debido a una alta mortalidad infantil. El área total bajo la curva en un tiempo de reparación infinito sería de 1. Figura 85. Función de Densidad de Probabilidad de Reparación Función de Mantenibilidad M(t). Esta función estaría matemáticamente representada mediante la expresión: M t donde φ sería la distribución normal estándar. lnt lnt IV.53

187 Capítulo IV. Resultados y Análisis Como se observa en la figura 86, esta es una función es creciente y tiende a 1 cuando el tiempo de reparación tiende a. Siendo esta una función acumulada de probabilidad crece muy rápidamente, teniendo aproximadamente un 90% de posibilidad de reparación en el 1 día. La probabilidad de ocurrencia de reparación en un intervalo de tiempo t 1 - t 2 pata t 2 > t 1 seria M t2 - M t1. Figura 86. Función de Mantenibilidad Función de no Reparabilidad R r(t). La expresión matemática que definiría esta función seria lnt Rr t 1 F t En la figura 87 se puede observar como esta función decreciente y tiende a 0 cuando t. Esta función representa la probabilidad de que no se haya completado la reparación de los dispositivos para un tiempo determinado t en días. La información que ofrece esta grafica es similar a la función de mantenibilidad pero en términos inversos. Figura 87. Funciones de no Reparabilidad. IV.54

188 Capítulo IV. Resultados y Análisis Función de Tasa de Reparación h(t). La expresión matemática viene dada por: h t lnt e t Erfc lnt En la figura 88 se muestra cómo evoluciona con el tiempo la tasa de reparación. Como se describió en el apartado teórico, la función de tasa de reparación o tendencia de reparabilidad es decreciente, disminuyendo la tasa de reparación al aumentar el tiempo. También se observa una zona de al comienzo del tiempo en la que existe un alto riesgo de reparación debido a la mortalidad infantil, pero con el paso del tiempo decrece la tasa de reparación. La probabilidad de que una avería sea reparada a partir de los 6 días es muy pequeña (5%), resultando una tasa de reparación de 2.5% de que una avería no se haya reparado para el tiempo de 10 días. Figura 88. Función de Tasa de reparación Función de Tasa de Reparación Acumulada H(t). La expresión matemática de la función de riesgo acumulado vendría dada por: t H t h t dt o H t lnr t 0 En la figura 89 se muestran cómo aunque parecería seguir una forma lineal, se observa como al inicio de la gráfica cierta curvatura en el sentido de una función convexa con derivada decreciente, lo que explicaría la forma decreciente de la función tasa de reparación. IV.55

189 Capítulo IV. Resultados y Análisis Figura 89. Función de Riesgo Acumulado Media o Esperanza Matemática θ = E[T]. La expresión matemática y resultado (Apéndice 4, apartado ) para la media del tiempo de reparación (días) o esperanza matemática vendría expresada por: E T e e Varianza Var[T]. La expresión matemática y resultado (Apéndice 4, apartado ) para la varianza del tiempo de reparación (días) vendría expresada por: Var T e 1 e p-cuantil La expresión matemática vendría dada por: p InverseErf c2p t e Análisis No Paramétrico Una vez realizado el análisis paramétrico de los datos de los tiempos de reparación, se pasara a realizar un estudio mediante métodos no paramétricos. IV.56

190 Capítulo IV. Resultados y Análisis Función de no Reparabilidad. El aspecto analítico fue indicado en el apartado teórico (Estimador de Kaplan-Meier (KM)).La función de supervivencia indica en esta situación la probabilidad en cada tiempo t de que el dispositivo no esté aún reparado. Como se indicó que la estimación del producto-límite de S(t) para la duración t, es una función escalonada, que se calcula como el producto de uno menos el riesgo existente hasta el período t: Utilizando la normalidad asintótica de aproximado para donde Z ee Rˆ t 1 2 ˆR t ˆR t, a un nivel del 100(1-α)%: nj d n j:tj t j j ˆR t, se puede construir el intervalo de confianza 1 2 Rˆ t Z ee Rˆ t es el cuantil correspondiente a la distribución normal estándar y Var Rˆ t es el error estándar de estimación del estimador KM de R(t), que se calcula con la fórmula de Greewood de la varianza del estimador KM, el cual viene dado por la expresión Var Rˆ t Rˆ t 2 j:t t j dt n n d j j t En el apartado 3.3. del Apéndice 4, se puede observar el programa realizado en R para el análisis no paramétrico con comentarios adicionales. El estimador de Kaplan-Maier para la función de supervivencia es obtenido mediante la librería Survival de R con la función survfit. Esta función en su forma más sencilla, solo requiere un objeto de supervivencia creado por la función Surv, en el cual se captura el tiempo observado de la variable y su estado (censurado o no). Presenta los argumentos time y event. El argumento time corresponde al tiempo desde que el dispositivo entra al estudio, hasta que este presenta la reparación o censura. El argumento event es una variable binaria que indica el estatus del tiempo registrado, donde, de forma predeterminada corresponde a 0 <- si el dato es censurado 1 <- si la reparación es observado Debido que no se tiene información de datos censurados, se asumirá un estudio con datos completos. Los dispositivos han fallado en el tiempo de control y, por tanto, su estado se representara por 1 en todos ellos. IV.57

191 Capítulo IV. Resultados y Análisis La función survfit de R indicara la información del estimador de Kaplan-Meier para la función de supervivencia(tabla 25), donde se tienen 80 dispositivos de estudio, los 80 presentan reparación y 0 presentan censura, el tiempo mediano de que no esté aún reparado es de y un intervalo con un 95 % de confianza está dado en su límite inferior por y en su límite superior por (en los intervalos de confianza obtenidos por la función survfit, para Inf toma el valor de 1 y -inf toma el valor de 0) (esta banda es estimada por el método ordinario ). Tabla 25. Estimador de Kaplan-Meier para el Tiempo de no Reparación records n.max n.start events median 0.95LCL 0.95UCL Información adicional se puede obtener mediante la función summary como se indica en la tabla 26 (en el apartado 2.2. del Apéndice 4 se puede observar la tabla completa) Tabla 26. Información del Estimador de Kaplan-Meier time n.risk n.event survival std.err lower 95% CI upper 95% CI donde time representa el tiempo para el que se presenta la información (anteriormente, la información se presentaba para el tiempo dado por median ), n.risk indica la cardinalidad del conjunto en riesgo o el número de individuos que continua en estudio al tiempo correspondiente, n.event corresponde al número de no reparaciones que se presentan entre cada tiempo, survival indica el valor que toma la función de no reparación estimada por el método Kaplan-Meier en el tiempo correspondiente, std.err corresponde al error estándar estimado para la función de supervivencia en el tiempo respectivo (expresión de Greewood) y finalmente lower95%ci y upper95 %CI denotan el intervalo de confianza para la función de supervivencia en cada tiempo como se mencionó anteriormente. El tipo de intervalo utilizado es el estándar (argumento conf.type= plain en la función survfit), en el caso de observar valores fuera de límites del intervalo, se podría ir a estimar un intervalo de confianza para la función de supervivencia mediante la transformación del valor de (i.e. log o log-log), expresado en los apartados de teoría y ˆR t IV.58

192 Capítulo IV. Resultados y Análisis En la figura 90 se muestra el estimador de Kaplan-Meier de la función de no reparabilidad con el intervalo de confianza para los 80 dispositivos, podría ser de interés analizar los tiempos de censura, pero este no es el caso, ya que toda la muestra fue observada. Figura 90. Función de no Reparabilidad - Estimada con Intervalo de Confianza. Se puede analizar la evolución de la probabilidad de no reparabilidad en el modelo con su respectivo intervalo de confianza y considerar la proporción de dispositivos que no están reparados entre cada periodo de tiempo. Se muestran 4 zonas diferencias con pendientes diferentes, siendo la más aguda de 0 a 0.25 días, una zona fuerte entre 0.25 y 1 días, una zona media entre 1 y 2.6 días una zona de estabilización entre 2.6 y 4 días. En la figura 91 se muestra un gráfico con la comparativa de resultados de la Estimación de la Función de no reparabilidad mediante los métodos de Kaplan-Meier y Nelson-Aalen. Figura 91. Comparativa de Métodos de Estimación de la Función de no reparabilidad IV.59

193 Capítulo IV. Resultados y Análisis Función de Mantenibilidad M(t) Cuando se analizan tiempos de reparación, es más sencillo realizarlo con la función de mantenibilidad M(t), que indica de la probabilidad de que el sistema esté disponible y por tanto reparado, para un tiempo t. La función de Mantenibilidad vendría representada por M(t)=1-R(t), en la figura 92. Figura 92. Función de Mantenibilidad Se puede analizar la evolución de la Mantenibilidad en el modelo con su respectivo intervalo de confianza y considerar la proporción de dispositivos que están reparados para un periodo de tiempo de determinado Función Tasa de Reparación Acumulada En la figura 93 se presenta la función tasa de reparación acumulada H(t) = - ln R(t), donde se puede apreciar los valores que va tomando y a partir de ellos, se demuestra el carácter de función cercana a la linealidad, con una pequeña convexidad. IV.60

194 Capítulo IV. Resultados y Análisis Figura 93. Funciones de Tasa de Reparación Acumulada. La función de tasa de reparación acumulada y la función de no reparabilidad están relacionadas para datos continuos de la siguiente forma R(t) = exp {-H(t)}. Esto ofrece un método de estimación inmediata de H(t) haciendo logaritmos a ambos lados H(t) = -logr(t). Un segundo método de estimación de H(t) es usando el estimador de Nelson-Aalen y su varianza. En la figura 94 se muestra un gráfico con los resultados de la comparación de la estimación de la función de tasa de reparación acumulada por ambos métodos. Se muestra una ligera diferencia desde el tiempo de reparación de 1 día que va incrementándose paulatinamente, coincidiendo con una probabilidad de no reparabilidad menor de un 18-20% (ver figura 90). Figura 94. Comparativa de Métodos de Estimación de la Función de tasa de reparación acumulada IV.61

195 Capítulo IV. Resultados y Análisis Ajuste de Datos Tiempo-Evento (no Reparabilidad) a Modelos Paramétricos Se pueden obtener modelos paramétricos puntuales para la función de no reparabilidad, tasa de reparación y tasa de reparación acumulado. Estos modelos son válidos para un solo valor en el tiempo para el cual se va a hacer la inferencia. Dentro de la librería flexsurv de R, está la función flexsurvreg que crea modelos paramétricos para datos de tiempo de que el dispositivo no este aun reparado (no reparabilidad). Los datos pueden ser censurados por la derecha o truncados a la izquierda. Diferentes distribuciones paramétricas están disponibles para ser utilizadas Función de no Reparabilidad Con la función flexsurvreg mediante la opción "survival" (Apéndice 4, apartado ) se puede obtener la función de no reparabilidad con una serie de funciones paramétricas, como se indica en la figura 95. Figura 95. Función de no Reparabilidad con Modelos Paramétricos De las 4 funciones de fiabilidad paramétricas propuestas, la función Lognormal presenta un mejor ajuste hasta los 0.25 días, a partir de este punto serían las distribuciones weibull y Gamma las que presentarían un ajuste más acertado a la función de no reparabilidad IV.62

196 Capítulo IV. Resultados y Análisis Función de Tasa de Reparación h(t) En esta ocasión es necesaria la función muhaz, que estima la función de tasa de reparación para datos censurados a la derecha con la opción "hazard" de la función flexsurvreg (Apéndice 4, apartado ), en la figura 96 se muestra el resultado: Figura 96. Función de Tasa de Reparación con Modelos Paramétricos Las funciones Exponencial y Gamma difieren del patrón mostrado por la función de tasa de reparación, principalmente la primera, ya que es conocido que la exponencial tiene una tasa de reparación constante en el tiempo. La función de weibull presenta una un buen ajuste pero no tiende a cero como la función no paramétrica y finalmente la función lognormal presenta una gráfica muy ajustada a ambos lados de la función y tiende a cero con mayor intensidad que el resto de funciones y de forma similar a la función de tasa de reparación Función de Tasa de Reparación Acumulada En esta ocasión se utilizada la función flexsurvreg y la opción "cumhaz" de (Apéndice 4, apartado ), mostrándose en la figura 97 el resultado obtenido: IV.63

197 Capítulo IV. Resultados y Análisis Figura 97. Función de Tasa de Reparación Acumulada con Modelos Paramétricos La Función de Lognormal y weibull serían las que presentarían un ajuste más cercano a la función en estudio. Las funciones Gamma y Exponencial difieren de la función de estudio principalmente a partir de los 1.5 días. Todos los gráficos muestran en común una gráfica óptima de ajuste, que sería la distribución lognormal Estimación No Paramétrica Debido a que la distribución que presenta un ajuste más adecuado es la distribución Lognormal, se realizara a continuación una estimación de parámetros de esta última mediante la función survreg mediante máxima verosimilitud MLE. En el apartado del Apéndice 4, se muestra su forma de cálculo, obteniendo de forma resumida los siguientes parámetros: Des. Estand. σ = Media μ = Las funciones principales resultantes con los parámetros obtenidos, se muestran en las figuras 98- IV.64

198 Capítulo IV. Resultados y Análisis Figura 98. Función de no Reparabilidad Figura 99. Función de Tasa de Reparación Figura 100. Función de Tasa de Reparación Acumulada Se ha podido identificar como las observaciones en el estudio no paramétricas se podrían ajustar a ciertas distribuciones paramétricas, identificando una de ellas (lognormal) y demostrando la validez del procedimiento no paramétrico para realizar un análisis adecuado de las observaciones y un ajuste a distribuciones teóricas Análisis Comparativo no Paramétrico y Paramétrico. La comparación de los valores de los parámetros fue realizada en el apartado Comparación de Métodos de Estimación de Parámetros. En las figuras se realiza una exposición resumen de las gráficas más sobresalientes del análisis no paramétricos y paramétrico.. Se puede observar una gran similitud entre ellas, aunque se podría indicar las diferencias entre las gráficas de la tasa de reparación h(t), siendo la no paramétrica irregular y tendiendo a cero con mayor incidencia que la paramétrica. IV.65

199 Capítulo IV. Resultados y Análisis Función de Mantenibilidad M(t). Figura 101. Función de Mantenibilidad M(t) Paramétrica (izq.) y Función no Paramétrica (der.) Función de no Reparabilidad R r(t). Figura 102. Función de no Reparabilidad Rr(t) Paramétrica (izq.) y Función no Paramétrica (der.) Función de Tasa de Reparación h(t). IV.66

200 Capítulo IV. Resultados y Análisis Figura 103. Función de Tasa de Reparación h(t) Paramétrica (izq.) y Función no Paramétrica (der.) Función de Tasa de Reparación Acumulada H(t). Figura 104. Función de Tasa de Reparación Acumulada H(t) Paramétrica (izq.) y Función no Paramétrica (der.) 4.4. Análisis Disponibilidad Los estudios realizados han sido para 80 dispositivos sin reparación. Pero para realizar un ejemplo didáctico, se hace la asumpción que los datos que se tienen corresponden a un único dispositivo reparable, por tanto los tiempos de TTF corresponden a TBF. Teniendo en cuenta los cálculos realizados para Media o Esperanza Matemática θ = E[T] de los tiempos de operación entre fallos MTBF y la media de los tiempos de reparación MTTR, se puede calcular la disponibilidad del dispositivo de la siguiente forma considerando las expresiones ya analizados anteriormente. Media o Esperanza Matemática θ = E[T] de MTBF: IV.67

201 Capítulo IV. Resultados y Análisis 1 1 E T Media o Esperanza Matemática θ = E[T] de MTTR: E T e e La disponibilidad de la máquina vendría dada por: MTBF D(t) % MTBF MTTR Teniendo como resultado una disponibilidad del dispositivo de un 99% aproximadamente Simulación Introducción Una vez obtenidos los parámetros para cada distribución identificada (fiabilidad y mantenibilidad) se pueden generar valores de la variable aleatoria que siguen dicha distribución. Así se simulara los diferentes tiempos de hasta el fallo o de reparación de los dispositivos. Estos valores serán comparados con las distribuciones identificadas en cada caso mediante gráficos Q-Q para comprobar si el ajuste es adecuado a partir del estudio grafico de posicionamiento de los puntos con respecto a la recta, siendo por tanto una confirmación empírica de los análisis realizados Variables Aleatorias de una Distribución Weibull Generación de Variables Aleatorias de una Distribución Weibull Esta es una explicación paso a paso de cómo calcular una función de transformación que convierte una variable aleatoria de una distribución a otra distribución mediante el método de inversión. En este caso se utiliza la distribución de Weibull como la distribución de destino. La distribución de Weibull se define mediante la función de densidad como sigue 1 x x fw x e Los parámetros forma β y escala η serán mayores que cero. Para valores de x menores de cero, la distribución se define como cero. Para determinar la transformación, se comienza con la ley fundamental de transformación de las probabilidades para dos funciones de distribución de probabilidad f(y) y p(x), o f y dx f y dy p x dx p x dy IV.68

202 Capítulo IV. Resultados y Análisis Esto permite relacionar una variable aleatoria x de la función de distribución p(x) con la variable aleatoria y de la función de distribución f(y). Si x es de una distribución uniforme en [0, 1], entonces p (x) es constante por lo que se tiene: f y dx dy La solución a esta ecuación es la integral definida de x F y f z dz. f(y), Esta relación daría la variable aleatoria de partida, dada la variable aleatoria final. Así que se tiene que ser capaz de invertir la relación, y G x. La dificultad está en la determinación de y = G(x) dado x = F(y), que puede hacer este problema potencialmente inviable. Para el caso de la distribución de Weibull se puede determinar fácilmente la inversa. A partir de: Entonces haciendo la integral se obtiene: Ahora se tiene que invertir y escribir, y = G(x), y y 0 y 0 w x F y f z dz 1 x F y e y 1 y y x F y 1e ln 1 x ln 1 x Por último, la transformación vendría dada por: 1 1 y G x ln x 1 1 y ln x El proceso comienza con la generación de la variable aleatoria, x, que proviene de una distribución uniforme (en el rango de 0 a 1). A continuación, se aplica la transformación anterior 1 y ln 1 x para obtener una nueva variable aleatoria independiente que tiene una distribución de Weibull con una media y la varianza que depende de los valores de forma β y escala η. IV.69

203 Capítulo IV. Resultados y Análisis Análisis de Ajuste de Valores a la Distribución Weibull. Se realizara el análisis 5 veces para cada una de las 3 muestras de 10, 20 y 40 observaciones de tiempo hasta el fallo de la distribución de weibull (β, η) = (0.6299, ). Se representaran los resultados en gráficos Q-Q Plot y se analizara gráficamente su ajuste. El test se realizara mediante una aplicación desarrollada en R. (Apéndice 4, apartado 4.1). Los datos numéricos obtenidos de la simulación se encuentran disponibles en el Apéndice 3, apartado Resultados Gráficos de Simulación para una Muestra de n = 10 En la figura 105 se muestran las gráficas para una muestra de 10 v.a. donde la gráfica 10-1 se muestra un outlier fuera de la tendencia del resto de puntos, la gráfica 10-5 los puntos siguen una tendencia clara pero no coincidente con la recta. IV.70

204 Capítulo IV. Resultados y Análisis Figura 105. Gráficos Q-Q para una muestra de 10 Variables Aleatorias de una Distribución de Weibull Resultados Gráficos de Simulación para una Muestra de n = 20 En la figura 106 se muestran las gráficas para una muestra de 20 v.a. donde las gráficas 20-2, 20-3 y 20-5 presentan 1 outlier en cada una de ellas, pero se va observando una mayor alineación de los datos a la recta, sobre todo en su parte baja. IV.71

205 Capítulo IV. Resultados y Análisis Figura 106. Gráficos Q-Q para una muestra de 20 Variables Aleatorias de una Distribución de Weibull Resultados Gráficos de Simulación para una Muestra de n = 40 En la figura 107 se muestran las gráficas para una muestra de 400 v.a. donde las gráficas 40-1 y 40-2 presenta ciertos puntos alejados de la recta, pero es evidente una mayor alineación de los datos a la recta conforme aumenta la cantidad de la muestra. IV.72

206 Capítulo IV. Resultados y Análisis Figura 107. Gráficos Q-Q para una muestra de 40 Variables Aleatorias de una Distribución de Weibull IV.73

207 Capítulo IV. Resultados y Análisis Resumen de los Test de MSE y de las Pruebas de Bondad de Ajuste Desde el punto de vista del error cuadrático medio (MSE), se observa en la tabla 27 como este aumenta con el tamaño de la muestra pero hay una muestra que destaca en su grupo (40-2) por un valor más elevado. Desde el punto de vista de la bondad del ajuste, la hipótesis nula es rechazada por el test de Kolmogorov-Smirnov como aparecen dos resultados para las muestras 10-4 y 40-5, el p-value está por debajo del nivel de significancia (5%), podría llegar a entenderse en una muestra pequeña pero es menos comprensible en una muestra de 40 elementos, si estos datos los comparamos con los resultados gráficos, estos últimos indicarían que los datos se ajustarían a una distribución de weibull. Por lo tanto, se puede estar incurriendo en un error del tipo I si rechazamos la hipótesis nula siendo verdadera. En el caso de la prueba para la muestra 40-1, la hipótesis nula es rechazada por el test de Pearson o Chi-Cuadrado. Esto se convierte en un error de tipo I ya que se está rechazando una hipótesis que de antemano, es verdadera. En este caso se tiene un parámetro de escala elevado. Se recomienda basarse en el test de Kolmogorov-Smirnov, siendo este una herramienta más potente. Tabla 27.Resumen de las Pruebas de Bondad de Ajuste de Tiempos hasta el Fallo Simulación - Generacion v.a de una distribución weibull t = scale(-log(1-x))^(1/shape). Fiabilidad - x es de una distribución uniforme en [0, 1], β = y η = Se ACEPTA la hipotesis nula p-valor > 0.05 (nivel de significancia). - Test de Chi-cuadrado para n > 30 Tamaño Secuencia MSE Prueba de Bonda de Ajuste Estadisticos K-S p-value Chi-Cuadrado C-M A-D K-S p-value Acep./Rech. H 0 p-value Acep./Rech. H A no calculado A no calculado A no calculado R no calculado A no calculado A no calculado A no calculado A no calculado A no calculado A no calculado A R A A A A A A R R IV.74

208 Capítulo IV. Resultados y Análisis Variables Aleatorias de una Distribución Log-Normal Generación de Variables Aleatorias de una Distribución Log-Normal Mediante el método de inversión se realizara una función de transformación para convertir una variable aleatoria de una distribución a otra distribución. En este caso la distribución de destino será la lognormal. 2 Si se define X N, viene dada por:, entonces Y x 2 e tiene distribución LN, 2 1 ln y 2 1 fy y e y 0 y 2 El esquema general para generar valores de esta distribución seria el siguiente: Generar un valor z de una distribución N 0, 1 Hacer x z. Su función de densidad Tomar y e x Análisis de Ajuste de Valores a la Distribución Log-Normal. Se realizara el análisis 5 veces para cada una de las 3 muestras de 10, 20 y 40 observaciones de tiempo hasta el fallo de la distribución Log-Normal (μ, σ 2 ) = ( , ). Se representaran los resultados en gráficos Q-Q Plot y se analizara gráficamente su ajuste. El test se realizara mediante una aplicación desarrollada en R. (Apéndice 4, apartado 4.2).Los datos numéricos obtenidos de la simulación se encuentran disponibles en el Apéndice 3, apartado Resultados Gráficos de Simulación para una Muestra de n = 10 En la figura 108 se muestran las gráficas para una muestra de 10 v.a. donde las gráficas 10-1 y 10-2 se muestra un outlier fuera de la tendencia del resto de puntos, la gráfica 10-5 los puntos siguen una tendencia clara pero no coincidente con la recta. IV.75

209 Capítulo IV. Resultados y Análisis Figura 108. Gráficos Q-Q para una muestra de 10 Variables Aleatorias de una Distribución Log-Normal IV.76

210 Capítulo IV. Resultados y Análisis Resultados Gráficos de Simulación para una Muestra de n = 20 En la figura 109 se muestran las gráficas para una muestra de 20 v.a. donde las gráficas 20-1 y 20-5 presentan 1 outlier en cada una de ellas, pero se va observando una mayor alineación de los datos a la recta, sobre todo en su parte baja. Figura 109. Gráficos Q-Q para una muestra de 20 Variables Aleatorias de una Distribución Log-Normal IV.77

CONCEPTO DE FIABILIDAD (RELIABILITY)

CONCEPTO DE FIABILIDAD (RELIABILITY) CONCEPTO DE FIABILIDAD (RELIABILITY) Documento elaborado por: Arturo Ruiz-Falcó-vocal del Comité de Confiabilidad de la AEC. En la guerra de Korea (años 50) el Departamento de Defensa (DoD) de los EE.UU

Más detalles

MANTENIMIENTO INDUSTRIAL.

MANTENIMIENTO INDUSTRIAL. REPÚBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD ALONSO DE OJEDA FACULTAD DE INGENIERÍA ESCUELA DE INDUSTRIAL MANTENIMIENTO INDUSTRIAL. Realizado por: Ing. Danmelys Perozo UNIDAD II: ESTADÍSTICAS DE FALLAS

Más detalles

CURSO: ANALISIS ESTADISTICO DE RIESGOS

CURSO: ANALISIS ESTADISTICO DE RIESGOS MANAGEMENT CONSULTORES CURSO: ANALISIS ESTADISTICO DE RIESGOS Cnel. R.L. Falcón 1435 C1406GNC 35 Buenos Aires, Argentina Tel.: 054-11-15-5468-3369 Fax: 054-11-4433-4202 Mail: acaminos@mgmconsultores.com.ar

Más detalles

INDICE 1. Qué es la Estadística? 2.Descripción de Datos: Distribuciones de Frecuencia y Presentación Gráfica

INDICE 1. Qué es la Estadística? 2.Descripción de Datos: Distribuciones de Frecuencia y Presentación Gráfica INDICE 1. Qué es la Estadística? 1 Introducción 2 Qué significa estadística? 2 Por qué se estudia la estadística? 4 Tipos de estadística 5 Estadística descriptiva 5 Estadística inferencial 6 Tipos de variables

Más detalles

Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA

Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA 1. Introducción Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA Los análisis económicos y empresariales se efectúan sobre la base de la toma de decisiones, las cuales se toman a partir de la información

Más detalles

ASIGNATURA CONFIABILIDAD OPERACIONAL (ELECTIVA II)

ASIGNATURA CONFIABILIDAD OPERACIONAL (ELECTIVA II) REPÚBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD ALONSO DE OJEDA FACULTAD DE INGENIERÍA ESCUELA DE INDUSTRIAL ASIGNATURA CONFIABILIDAD OPERACIONAL (ELECTIVA II) Ing. Danmelys Perozo E-mail: danmelys@gmail.com

Más detalles

Preparación de los datos de entrada

Preparación de los datos de entrada Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:

Más detalles

CM0244. Suficientable

CM0244. Suficientable IDENTIFICACIÓN NOMBRE ESCUELA ESCUELA DE CIENCIAS NOMBRE DEPARTAMENTO Ciencias Matemáticas ÁREA DE CONOCIMIENTO MATEMATICAS, ESTADISTICA Y AFINES NOMBRE ASIGNATURA EN ESPAÑOL ESTADÍSTICA GENERAL NOMBRE

Más detalles

Carrera: Clave de la asignatura: INB Participantes Representante de las academias de ingeniería industrial de los Institutos Tecnológicos.

Carrera: Clave de la asignatura: INB Participantes Representante de las academias de ingeniería industrial de los Institutos Tecnológicos. 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Estadística I Ingeniería Industrial INB - 0403 4 0 8 2.- HISTORIA DEL PROGRAMA

Más detalles

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia Estudio de Caso: Estudio Morfología Coeficiente de Correlación Considere el archivo Estudio Morfología.sav.

Más detalles

Introducción a la Estadística Aplicada en la Química

Introducción a la Estadística Aplicada en la Química Detalle de los Cursos de Postgrado y Especialización en Estadística propuestos para 2015 1/5 Introducción a la Estadística Aplicada en la Química FECHAS: 20/04 al 24/04 de 2015 HORARIO: Diario de 10:00

Más detalles

Mantenimiento. Introducción, definiciones y principios. Mauricio Holguín Londoño. Actividades Medidas por TIC. Noviembre, 2013

Mantenimiento. Introducción, definiciones y principios. Mauricio Holguín Londoño. Actividades Medidas por TIC. Noviembre, 2013 Mantenimiento Introducción, definiciones y principios Mauricio Holguín Londoño Actividades Medidas por TIC Noviembre, 2013 Mauricio Holguín Londoño Universidad Tecnológica de Pereira - 1/22 Objetivos Presentación

Más detalles

Carrera: Clave de la asignatura: INB Participantes Representante de las academias de ingeniería industrial de los Institutos Tecnológicos.

Carrera: Clave de la asignatura: INB Participantes Representante de las academias de ingeniería industrial de los Institutos Tecnológicos. 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Estadística I Ingeniería Industrial INB-0403 4-0-8.- HISTORIA DEL PROGRAMA Lugar

Más detalles

INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016

INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016 ANEXO ESTADÍSTICO 1 : COEFICIENTES DE VARIACIÓN Y ERROR ASOCIADO AL ESTIMADOR ENCUESTA NACIONAL DE EMPLEO (ENE) INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 9 de Abril de 016 1 Este anexo estadístico es una

Más detalles

CATEDRA Mantenimiento Industrial. Unidad IV Planificación y Organización del Mantenimiento. Ing. Deny González

CATEDRA Mantenimiento Industrial. Unidad IV Planificación y Organización del Mantenimiento. Ing. Deny González CATEDRA Mantenimiento Industrial Unidad IV Planificación y Organización del Mantenimiento Ing. Deny González Planificación Análisis de actividades en tiempos de operaciones necesarias, mano de obra requerida,

Más detalles

CUERPO TÉCNICO, OPCION ESTADISTICA

CUERPO TÉCNICO, OPCION ESTADISTICA CUERPO TÉCNICO, OPCION ESTADISTICA ESTADÍSTICA TEÓRICA BÁSICA TEMA 1. Fenómenos aleatorios. Conceptos de probabilidad. Axiomas. Teoremas de probabilidad. Sucesos independientes. Teorema de Bayes. TEMA

Más detalles

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4 PS0401 - Probabilidad y Estadística DES: Ingeniería Programa(s) Educativo(s): Ingeniería de Software Tipo de materia: Obligatoria Clave de la materia: PS0401 Cuatrimestre: 4 UNIVERSIDAD AUTÓNOMA DE Área

Más detalles

INDICE. Prólogo a la Segunda Edición

INDICE. Prólogo a la Segunda Edición INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.

Más detalles

Mensaje del Editor...v El Autor... vii Contenido página Web...xvii Código Web... xviii Prólogo...xix

Mensaje del Editor...v El Autor... vii Contenido página Web...xvii Código Web... xviii Prólogo...xix Contenido ix CONTENiDO Mensaje del Editor...v El Autor... vii Contenido página Web...xvii Código Web... xviii Prólogo...xix Primera parte evolución del mantenimiento y la Producción...1 introducción...

Más detalles

07 Estimación puntual e introducción a la estadística inferencial

07 Estimación puntual e introducción a la estadística inferencial 07 Estimación puntual e introducción a la estadística inferencial Diego Andrés Alvarez Marín Profesor Asistente Universidad Nacional de Colombia Sede Manizales 1 Contenido Qué es la estadística inferencial?

Más detalles

Carrera: EMM Participantes Representante de las academias de ingeniería Electromecánica de los Institutos Tecnológicos.

Carrera: EMM Participantes Representante de las academias de ingeniería Electromecánica de los Institutos Tecnológicos. 1. DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Probabilidad y Estadística Ingeniería Electromecánica EMM - 0528 3 2 8 2.- HISTORIA

Más detalles

PROGRAMA DETALLADO VIGENCIA TURNO UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA ARMADA 2009 DIURNO INGENIERÌA EN SISTEMAS ASIGNATURA

PROGRAMA DETALLADO VIGENCIA TURNO UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA ARMADA 2009 DIURNO INGENIERÌA EN SISTEMAS ASIGNATURA PROGRAMA DETALLADO VIGENCIA TURNO UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA ARMADA 2009 DIURNO INGENIERÌA EN SISTEMAS SEMESTRE ASIGNATURA 8vo TEORÍA DE DECISIONES CÓDIGO HORAS MAT-31314

Más detalles

Carrera: Ingeniería Civil CIM 0531

Carrera: Ingeniería Civil CIM 0531 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos: Probabilidad y Estadística Ingeniería Civil CIM 0531 3 2 8 2.- HISTORIA DEL PROGRAMA

Más detalles

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos INDICE Prefacio VII 1. Introducción 1 1.1. Qué es la estadística moderna? 1 1.2. El crecimiento y desarrollo de la estadística moderna 1 1.3. Estudios enumerativos en comparación con estudios analíticos

Más detalles

ESTADÍSTICA E INTRODUCCIÓN A LA ECONOMETRÍA

ESTADÍSTICA E INTRODUCCIÓN A LA ECONOMETRÍA GUÍA DOCENTE 2012-2013 ESTADÍSTICA E INTRODUCCIÓN A LA ECONOMETRÍA 1. Denominación de la asignatura: ESTADÍSTICA E INTRODUCCIÓN A LA ECONOMETRÍA Titulación GRADO EN FINANZAS Y CONTABILIDAD Código 5592

Más detalles

Teoría de la decisión

Teoría de la decisión 1.- Un problema estadístico típico es reflejar la relación entre dos variables, a partir de una serie de Observaciones: Por ejemplo: * peso adulto altura / peso adulto k*altura * relación de la circunferencia

Más detalles

METODOLOGÍA SEIS SIGMA A TRAVÉS DE EXCEL

METODOLOGÍA SEIS SIGMA A TRAVÉS DE EXCEL METODOLOGÍA SEIS SIGMA A TRAVÉS DE EXCEL María Pérez Marqués Metodología Seis Sigma a través de Excel María Pérez Marqués ISBN: 978-84-937769-7-8 EAN: 9788493776978 Copyright 2010 RC Libros RC Libros es

Más detalles

UNIVERSIDAD MARÍA AUXILIADORA UMA

UNIVERSIDAD MARÍA AUXILIADORA UMA CARRERA PROFESIONAL DE ENFERMERIA SÍLABO DE BIOESTADÍSTICA I. DATOS GENERALES: 1.1. Carreras profesionales : Enfermería 1.2. Semestre académico : 2015 - I 1.3. Ciclo : III 1.4. Pre-requisito : Matemática

Más detalles

Estadística Aplicada

Estadística Aplicada Estadística Aplicada Distribuciones de Probabilidad Variables aleatorias Toman un valor numérico para cada resultado de un espacio muestral Discretas. Sus valores posibles constituyen un conjunto discreto.

Más detalles

Pamplona, noviembre de Ing. M.Sc. José Manuel Ramírez Quintero

Pamplona, noviembre de Ing. M.Sc. José Manuel Ramírez Quintero Pamplona, noviembre de 2014 Ing. M.Sc. José Manuel Ramírez Quintero Introducción El modelo integral CMD, siglas de (Confiabilidad, Mantenibilidad y Disponibilidad), es una herramienta útil para la predicción

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Facultad de Ciencias e Ingeniería. Escuela Académico Profesional de Comunicación SÍLABO

Facultad de Ciencias e Ingeniería. Escuela Académico Profesional de Comunicación SÍLABO Facultad de Ciencias e Ingeniería Escuela Académico Profesional de Comunicación SÍLABO ASIGNATURA: ESTADÍSTICA APLICADA A LAS COMUNICIONES I. DATOS GENERALES: 1.1. Código de Asignatura : 21252 1.2. Escuela

Más detalles

Carrera: Integrantes de la Academia de Ingeniería Industrial: M.C. Ramón García González. Integrantes de la

Carrera: Integrantes de la Academia de Ingeniería Industrial: M.C. Ramón García González. Integrantes de la 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Ingeniería de calidad Licenciatura en Ingeniería Industrial Clave de la asignatura: Horas teoría horas práctica - créditos 4-0 - 8 2.- HISTORIA

Más detalles

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso INDICE Capítulo I: Conceptos Básicos 1.- Introducción 3 2.- Definición de calidad 7 3.- Política de calidad 10 4.- Gestión de la calidad 12 5.- Sistema de calidad 12 6.- Calidad total 13 7.- Aseguramiento

Más detalles

Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos.

Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. MATEMÁTICAS I Contenidos. Aritmética y álgebra: Números reales. Valor absoluto. Desigualdades. Distancias entre la recta real. Intervalos y entornos. Resolución e interpretación gráfica de ecuaciones e

Más detalles

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas Part I unidimensionales de s de s Definición Dado un experimento aleatorio, con espacio muestral asociado Ω, una es cualquier función, X, X : Ω R que asocia a cada suceso elemental un número real, verificando

Más detalles

ÍNDICE CAPÍTULO 1. INTRODUCCIÓN

ÍNDICE CAPÍTULO 1. INTRODUCCIÓN ÍNDICE CAPÍTULO 1. INTRODUCCIÓN 1.1. OBJETO DE LA ESTADÍSTICA... 17 1.2. POBLACIONES... 18 1.3. VARIABLES ALEATORIAS... 19 1.3.1. Concepto... 19 1.3.2. Variables discretas y variables continuas... 20 1.3.3.

Más detalles

TITULACIÓN: Grado en Turimo. CENTRO: Facultad de Ciencias Sociales y Juridicas CURSO ACADÉMICO: GUÍA DOCENTE

TITULACIÓN: Grado en Turimo. CENTRO: Facultad de Ciencias Sociales y Juridicas CURSO ACADÉMICO: GUÍA DOCENTE TITULACIÓN: Grado en Turimo CENTRO: Facultad de Ciencias Sociales y Juridicas CURSO ACADÉMICO: 2011-2012 GUÍA DOCENTE 1. DATOS BÁSICOS DE LA ASIGNATURA NOMBRE: Estadística CÓDIGO: CURSO ACADÉMICO: 2011/2012

Más detalles

Carrera: Ingeniería Civil Participantes Comité de Evaluación Curricular de Institutos Tecnológicos

Carrera: Ingeniería Civil Participantes Comité de Evaluación Curricular de Institutos Tecnológicos 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Probabilidad y Estadística Ingeniería Civil Clave de la asignatura: Horas teoría-horas práctica-créditos 3-2-8 2.- HISTORIA DEL PROGRAMA Lugar

Más detalles

UNIVERSIDAD AUTÓNOMA DE CHIAPAS FACULTAD DE INGENIERÍA CAMPUS I PROBABILIDAD Y ESTADÍSTICA

UNIVERSIDAD AUTÓNOMA DE CHIAPAS FACULTAD DE INGENIERÍA CAMPUS I PROBABILIDAD Y ESTADÍSTICA UNIVERSIDAD AUTÓNOMA DE CHIAPAS FACULTAD DE INGENIERÍA CAMPUS I PROBABILIDAD Y ESTADÍSTICA NIVEL: LICENCIATURA CRÉDITOS: 9 CLAVE: ICAD24.500919 HORAS TEORÍA: 4.5 SEMESTRE: CUARTO HORAS PRÁCTICA: 0 REQUISITOS:

Más detalles

Simulación de eventos discretos.

Simulación de eventos discretos. Simulación de eventos discretos http://humberto-r-alvarez-a.webs.com Qué es simulación? Consiste en diseñar y desarrollar un modelo computarizado de un sistema o proceso y conducir experimentalmente con

Más detalles

INDICE Prefacio 1. Introducción 2. Distribuciones de frecuencia: tablas estadísticas y graficas

INDICE Prefacio 1. Introducción 2. Distribuciones de frecuencia: tablas estadísticas y graficas INDICE Prefacio XIII 1. Introducción 1.1. la imagen de la estadística 1 1.2. dos tipos de estadísticas 1.3. estadística descriptiva 2 1.4. estadística inferencial 1.5. naturaleza interdisciplinaria de

Más detalles

ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Estadistica. CURSO ACADÉMICO - SEMESTRE Primer semestre

ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Estadistica. CURSO ACADÉMICO - SEMESTRE Primer semestre ANX-PR/CL/001-01 GUÍA DE APRENDIZAJE ASIGNATURA Estadistica CURSO ACADÉMICO - SEMESTRE 2016-17 - Primer semestre GA_05IQ_55001012_1S_2016-17 Datos Descriptivos Nombre de la Asignatura Titulación Centro

Más detalles

Regresión lineal SIMPLE MÚLTIPLE N A Z IRA C A L L E J A

Regresión lineal SIMPLE MÚLTIPLE N A Z IRA C A L L E J A Regresión lineal REGRESIÓN LINEAL SIMPLE REGRESIÓN LINEAL MÚLTIPLE N A Z IRA C A L L E J A Qué es la regresión? El análisis de regresión: Se utiliza para examinar el efecto de diferentes variables (VIs

Más detalles

Competencias Generales

Competencias Generales Competencias Generales - Capacidad para el diseño, desarrollo y gestión en el ámbito de la ingeniería aeronáutica que tengan por objeto, de acuerdo con los conocimientos adquiridos según lo establecido

Más detalles

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos Contenido Acerca de los autores.............................. Prefacio.... xvii CAPÍTULO 1 Introducción... 1 Introducción.............................................. 1 1.1 Ideas de la estadística.........................................

Más detalles

ANÁLISIS DE DATOS. L.A. y M.C.E. Emma Linda Diez Knoth

ANÁLISIS DE DATOS. L.A. y M.C.E. Emma Linda Diez Knoth ANÁLISIS DE DATOS 1 Tipos de Análisis en función de la Naturaleza de los Datos Datos cuantitativos Datos cualitativos Análisis cuantitativos Análisis cuantitativos de datos cuantitativos (Estadística)

Más detalles

Prácticas de Fiabilidad

Prácticas de Fiabilidad Prácticas de Fiabilidad Práctica 1: Objetivo: En esta práctica se van a analizar una serie de muestras de duración de procesos para ver si corresponden a procesos con Tasa de Fallos (Hazard Rate) creciente,

Más detalles

T2. El modelo lineal simple

T2. El modelo lineal simple T2. El modelo lineal simple Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 40 Índice 1 Planteamiento e hipótesis básicas 2 Estimación de

Más detalles

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables Pág. N. 1 Índice general Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN 1.1 Diseño 1.2 Descriptiva 1.3 Inferencia Diseño Población Muestra Individuo (Observación, Caso, Sujeto) Variables Ejercicios de Población

Más detalles

1. Dar a conocer los fundamentos del razonamiento científico y la investigación clínica y epidemiológica

1. Dar a conocer los fundamentos del razonamiento científico y la investigación clínica y epidemiológica Módulo 1. Métodos de investigación clínica y epidemiológica del módulo 1. Dar a conocer los fundamentos del razonamiento científico y la investigación clínica y epidemiológica 2. Capacitar al alumno para

Más detalles

PROGRAMA ACADEMICO Ingeniería Industrial

PROGRAMA ACADEMICO Ingeniería Industrial 1. IDENTIFICACIÓN DIVISION ACADEMICA Ingenierías DEPARTAMENTO Ingeniería Industrial PROGRAMA ACADEMICO Ingeniería Industrial NOMBRE DEL CURSO Análisis de datos en Ingeniería COMPONENTE CURRICULAR Profesional

Más detalles

Contenidos IB-Test Matemática NM 2014.

Contenidos IB-Test Matemática NM 2014. REDLAND SCHOOL MATHEMATICS DEPARTMENT 3 MEDIO NM 1.- Estadística y probabilidad. Contenidos IB-Test Matemática NM 2014. 1.1.- Conceptos de población, muestra, muestra aleatoria, y datos discretos y continuos.

Más detalles

Tema 10: Introducción a los problemas de Asociación y Correlación

Tema 10: Introducción a los problemas de Asociación y Correlación Tema 10: Introducción a los problemas de Asociación y Correlación Estadística 4 o Curso Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 10: Asociación y Correlación

Más detalles

Análisis de estudios de cohortes en Ciencias de la P005/10. Salud (modelos regresión de Poisson y de Cox)

Análisis de estudios de cohortes en Ciencias de la P005/10. Salud (modelos regresión de Poisson y de Cox) Análisis de estudios de cohortes en Ciencias de la P005/10 Salud (modelos regresión de Poisson y de Cox) Fecha de aprobación de programa: Marzo 2012 Fechas curso: 4 y 5 de Junio de 2012 Horario: Mañana

Más detalles

ANALISIS DE FRECUENCIA EN HIDROLOGIA

ANALISIS DE FRECUENCIA EN HIDROLOGIA ANALISIS DE FRECUENCIA EN HIDROLOGIA Luis F. Carvajal Julián D. Rojo Universidad Nacional de Colombia Facultad de Minas Escuela de Geociencias y Medio Ambiente Introducción 1. Los eventos hidrológicos

Más detalles

UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE MEDICINA

UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE MEDICINA UNIVERSIDAD AUTÓNOMA DE QUERÉTARO FACULTAD DE MEDICINA Módulo II Bioestadística Maestría en Investigación Médica PROGRAMA ACADÉMICO 2012-1 MVZ, MSc, PhD. CARLOS FRANCISCO SOSA FERREYRA 1. ASIGNATURA: MÓDULO

Más detalles

MASTER EN CIENCIAS ACTUARIALES Y FINANCIERAS PLAN Módulo: FORMACIÓN FUNDAMENTAL. Créditos ECTS: 6 Presenciales: 5 No presenciales: 1

MASTER EN CIENCIAS ACTUARIALES Y FINANCIERAS PLAN Módulo: FORMACIÓN FUNDAMENTAL. Créditos ECTS: 6 Presenciales: 5 No presenciales: 1 MASTER EN CIENCIAS ACTUARIALES Y FINANCIERAS PLAN 2009 Nombre de asignatura: AMPLIACIÓN DE ESTADÍSTICA Código:603358 Materia: MATEMÁTICAS Y ESTADÍSTICA Módulo: FORMACIÓN FUNDAMENTAL Carácter: OBLIGATORIA

Más detalles

CARGA HORARIA Horas totales: 80 Horas totales de resolución de problemas de aplicación: 32

CARGA HORARIA Horas totales: 80 Horas totales de resolución de problemas de aplicación: 32 PROBABILIDAD Y ESTADISTICA OBJETIVOS: 1. Extraer y sintetizar información de un conjunto de datos. 2. Aprehender los conceptos de aleatoriedad y probabilidad. 3. Estudiar los modelos más importantes de

Más detalles

SELECCION DE FUNCIONES DE DISTRIBUCION PARA EL ANÁLISIS DE FRECUENCIA DE CAUDALES MÁXIMOS

SELECCION DE FUNCIONES DE DISTRIBUCION PARA EL ANÁLISIS DE FRECUENCIA DE CAUDALES MÁXIMOS SELECCION DE FUNCIONES DE DISTRIBUCION PARA EL ANÁLISIS DE FRECUENCIA DE CAUDALES MÁXIMOS Dr Edilberto Guevara Pérez Universidad de Carabobo, Facultad de Ingeniería RESUMEN En el trabajo se presenta un

Más detalles

INGENIERÍA EN TECNOLOGÍAS DE LA INFORMACIÓN

INGENIERÍA EN TECNOLOGÍAS DE LA INFORMACIÓN INGENIERÍA HOJA DE ASIGNATURA CON DESGLOSE DE UNIDADES TEMÁTICAS 1. Nombre de la asignatura Estadística Aplicada 2. Competencias Dirigir proyectos de tecnologías de información (T.I.) para contribuir a

Más detalles

PROGRAMA DE ESTADÍSTICA DESCRIPTIVA

PROGRAMA DE ESTADÍSTICA DESCRIPTIVA PROGRAMA DE ESTADÍSTICA DESCRIPTIVA CONCEPTOS BÁSICOS DE ESTADÍSTICA Definición de Estadística Origen del concepto. Evolución histórica de la Estadística Estadística Descriptiva y Estadística Inferencial

Más detalles

INSTITUTO UNIVERSITARIO PUEBLA HOJA: 1 DE 5

INSTITUTO UNIVERSITARIO PUEBLA HOJA: 1 DE 5 INSTITUTO UNIVERSITARIO PUEBLA HOJA: 1 DE 5 PROGRAMA ACADÉMICO: LICENCIATURA EN INGENIERIA INDUSTRIAL TIPO EDUCATIVO: INGENIERIA MODALIDAD: MIXTA SERIACIÓN: NINGUNA CLAVE DE LA ASIGNATURA: 126 CICLO: QUINTO

Más detalles

ANÁLISIS DE FRECUENCIAS

ANÁLISIS DE FRECUENCIAS ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE

Más detalles

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición... Contenidos 1 Introducción al paquete estadístico S-PLUS 19 1.1 Introducción a S-PLUS............................ 21 1.1.1 Cómo entrar, salir y consultar la ayuda en S-PLUS........ 21 1.2 Conjuntos de datos..............................

Más detalles

MATEMÁTICAS APLICADAS A LAS CCSS II (2º BACHILLERATO)

MATEMÁTICAS APLICADAS A LAS CCSS II (2º BACHILLERATO) MATEMÁTICAS APLICADAS A LAS CCSS II (2º BACHILLERATO) 1.1.1 Contenidos y temporalización. Matemáticas Aplicadas a las Ciencias Sociales II 1.1.1.1 Bloque 1. Álgebra (Total : 40 sesiones) Matrices y determinantes

Más detalles

CUESTIONES Y PROBLEMAS DE DISTRIBUCIONES DE FRECUENCIAS BIDIMENSIONALES PROPUESTOS EN EXÁMENES

CUESTIONES Y PROBLEMAS DE DISTRIBUCIONES DE FRECUENCIAS BIDIMENSIONALES PROPUESTOS EN EXÁMENES TUTORÍA DE INTRODUCCIÓN A LA ESTADÍSTICA (º A.D.E.) CUESTIONES Y PROBLEMAS DE DISTRIBUCIONES DE FRECUENCIAS BIDIMENSIONALES PROPUESTOS EN EXÁMENES 1º) Qué ocurre cuando r = 1: a) Los valores teóricos no

Más detalles

Ciclo de vida de transformadores

Ciclo de vida de transformadores Ciclo de vida de transformadores Introducción En el presente escrito se realiza una descripción conceptual de la gestión de activos en general y de transformadores en particular. El enfoque se centrará

Más detalles

Conceptos Básicos de Inferencia

Conceptos Básicos de Inferencia Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos

Más detalles

Tema Contenido Contenidos Mínimos

Tema Contenido Contenidos Mínimos 1 Estadística unidimensional - Variable estadística. - Tipos de variables estadísticas: cualitativas, cuantitativas discretas y cuantitativas continuas. - Variable cualitativa. Distribución de frecuencias.

Más detalles

Estadística II. Carrera: INB Participantes. Representante de las academias de ingeniería industrial de Institutos Tecnológicos.

Estadística II. Carrera: INB Participantes. Representante de las academias de ingeniería industrial de Institutos Tecnológicos. 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Estadística II Ingeniería Industrial INB - 0408 4 0 8 2.- HISTORIA DEL PROGRAMA

Más detalles

UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA VICERRECTORADO ACADÉMICO COORDINACION DE PRE-GRADO PROYECTO DE CARRERA DE INGENIERIA INDUSTRIAL

UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA VICERRECTORADO ACADÉMICO COORDINACION DE PRE-GRADO PROYECTO DE CARRERA DE INGENIERIA INDUSTRIAL VICERRECTORADO ACADÉMICO COORDINACION DE PRE-GRADO PROYECTO DE CARRERA DE INGENIERIA INDUSTRIAL PROGRAMA: ESTADISTICA II CÓDIGO ASIGNATURA: 1215-22 PRE-REQUISITO: 1215-311 SEMESTRE: CUARTO UNIDADES DE

Más detalles

NUEVAS ESTRATEGIAS DE OPTIMIZACIÓN PARA EL PROCESO DE ENVASADO EN PESADORAS MULTICABEZALES IMPLEMENTADAS EN EMPRESAS DE ALIMENTOS

NUEVAS ESTRATEGIAS DE OPTIMIZACIÓN PARA EL PROCESO DE ENVASADO EN PESADORAS MULTICABEZALES IMPLEMENTADAS EN EMPRESAS DE ALIMENTOS NUEVAS ESTRATEGIAS DE OPTIMIZACIÓN PARA EL PROCESO DE ENVASADO EN PESADORAS MULTICABEZALES IMPLEMENTADAS EN EMPRESAS DE ALIMENTOS 1. INTRODUCCIÓN Alexander De Jesús Pulido Rojano alpuro@doctor.upv.es Estudiante

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

PROGRAMA INSTRUCCIONAL ESTADÍSTICA

PROGRAMA INSTRUCCIONAL ESTADÍSTICA UNIVERSIDAD FERMIN TORO VICE RECTORADO ACADEMICO FACULTAD DE INGENIERIA ESCUELA DE MANTENIMIENTO MECÁNICO ESCUELA DE TELECOMUNICACIONES ESCUELA DE COMPUTACIÓN ESCUELA DE ELÉCTRICA PROGRAMA INSTRUCCIONAL

Más detalles

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión.

MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. 1 Objetivos del tema Conocer en qué consiste un árbol de decisión. Aprender los problemas que pueden

Más detalles

1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA

1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA MODELO DE REGRESIÓN LOGÍSTICA Introducción A grandes rasgos, el objetivo de la regresión logística se puede describir de la siguiente forma: Supongamos que los individuos de una población pueden clasificarse

Más detalles

Grado en Biología Universidad de Alcalá Curso Académico 2011/12 Curso 2º Cuatrimestre 1º

Grado en Biología Universidad de Alcalá Curso Académico 2011/12 Curso 2º Cuatrimestre 1º ESTADISTICA Grado en Biología Universidad de Alcalá Curso Académico 2011/12 Curso 2º Cuatrimestre 1º GUÍA DOCENTE Nombre de la asignatura: Estadística Código: 650008 Titulación en la que se imparte: Grado

Más detalles

Procedimiento para Mantenimiento de Centrales de Generación

Procedimiento para Mantenimiento de Centrales de Generación Procedimiento para Mantenimiento de Centrales de Generación Objetivo: Establecer los lineamientos para realizar las actividades necesarias para asegurar la funcionalidad de los equipos e infraestructura

Más detalles

Análisis del Costo Riesgo Beneficio y el Ciclo de Vida de los Activos de una Empresa

Análisis del Costo Riesgo Beneficio y el Ciclo de Vida de los Activos de una Empresa Análisis del Costo Riesgo Beneficio y el Ciclo de Vida de los Activos de una Empresa Econ. Denniza Coello Destinados a: Análisis del Costo Riesgo Beneficio y el Ciclo de Vida de los Activos de una Empresa

Más detalles

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios

III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios III Verano de Probabilidad y Estadística Curso de Procesos de Poisson (Víctor Pérez Abreu) Lista de Ejercicios Esta lista contiene ejercicios y problemas tanto teóricos como de modelación. El objetivo

Más detalles

UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN FACULTAD DE CIENCIAS BIOLÓGICAS SUBDIRECCIÓN DE POSGRADO

UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN FACULTAD DE CIENCIAS BIOLÓGICAS SUBDIRECCIÓN DE POSGRADO UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN FACULTAD DE CIENCIAS BIOLÓGICAS SUBDIRECCIÓN DE POSGRADO CONTENIDO DE CARTA DESCRIPTIVA 1.- IDENTIFICACIÓN Curso: Bioestadística Programa: Doctorado en Inmunobiología

Más detalles

ESTADÍSTICA I PRESENTACIÓN DE LA ASIGNATURA

ESTADÍSTICA I PRESENTACIÓN DE LA ASIGNATURA ESTADÍSTICA I PRESENTACIÓN DE LA ASIGNATURA Descripción de la asignatura Estadística I El objetivo de la asignatura es proporcionar al estudiante conocimiento Departamento de Estadística y comprensión

Más detalles

UNIVERSIDAD AUTÓNOMA DE CHIAPAS FACULTAD DE INGENIERÍA CAMPUS I PROBABILIDAD Y ESTADISTICA

UNIVERSIDAD AUTÓNOMA DE CHIAPAS FACULTAD DE INGENIERÍA CAMPUS I PROBABILIDAD Y ESTADISTICA UNIVERSIDAD AUTÓNOMA DE CHIAPAS FACULTAD DE INGENIERÍA CAMPUS I PROBABILIDAD Y ESTADISTICA NIVEL : LICENCIATURA CRÉDITOS : 7 CLAVE : ICAE13001731 HORAS TEORÍA : 3 SEMESTRE : QUINTO HORAS PRÁCTICA : 1 REQUISITOS

Más detalles

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS)

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS) 2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS) La idea principal en este capitulo es el inicio a planear los diseño experimentales y su correspondiente análisis estadístico. En este caso iniciaremos

Más detalles

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES I 1º BACHILLERATO

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES I 1º BACHILLERATO MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES I 1º BACHILLERATO DEL CURSO 1. Utilizar los números reales, sus notaciones, operaciones y procedimientos asociados, para presentar e intercambiar información,

Más detalles

ESTADÍSTICA II Código: 8314

ESTADÍSTICA II Código: 8314 ESTADÍSTICA II Código: 8314 Departamento : Metodología Especialidad : Ciclo Básico Prelación : 8219 Tipo de Asignatura : Obligatoria Teórica y Práctica Número de Créditos : 3 Número de horas semanales

Más detalles

CÁLCULO DE PROBABILIDADES

CÁLCULO DE PROBABILIDADES CÁLCULO DE PROBABILIDADES Tipo de asignatura: Troncal Anual. Créditos ECTS: 15 I.- INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES. (16 horas presenciales) Tema 1.- La naturaleza del cálculo de probabilidades.

Más detalles

ADMINISTRACION DE OPERACIONES

ADMINISTRACION DE OPERACIONES Sesión4: Métodos cuantitativos ADMINISTRACION DE OPERACIONES Objetivo específico 1: El alumno conocerá y aplicara adecuadamente los métodos de pronóstico de la demanda para planear la actividad futura

Más detalles

Bloque 1. Contenidos comunes. (Total: 3 sesiones)

Bloque 1. Contenidos comunes. (Total: 3 sesiones) 4º E.S.O. OPCIÓN A 1.1.1 Contenidos 1.1.1.1 Bloque 1. Contenidos comunes. (Total: 3 sesiones) Planificación y utilización de procesos de razonamiento y estrategias de resolución de problemas, tales como

Más detalles

Diplomado en Estadística Aplicada

Diplomado en Estadística Aplicada Diplomado en Estadística Aplicada Con el propósito de mejorar las habilidades para la toma de decisiones, la División de Estudios de Posgrado de la Facultad de Economía ha conjuntado a profesores con especialidad

Más detalles

Gestión de Activos y Ciclo de Vida 11 Congreso Uruguayo de Mantenimiento, Gestión de Activos y Confiabilidad URUMAN 2015

Gestión de Activos y Ciclo de Vida 11 Congreso Uruguayo de Mantenimiento, Gestión de Activos y Confiabilidad URUMAN 2015 Gestión de Activos y Ciclo de Vida 11 Congreso Uruguayo de Mantenimiento, Gestión de Activos y Confiabilidad URUMAN 2015 Presentada por: Ing. Ind. Santiago Sotuyo Blanco, CMRP Presidente URUMAN Gerente

Más detalles

4. NÚMEROS PSEUDOALEATORIOS.

4. NÚMEROS PSEUDOALEATORIOS. 4. NÚMEROS PSEUDOALEATORIOS. En los experimentos de simulación es necesario generar valores para las variables aleatorias representadas estas por medio de distribuciones de probabilidad. Para poder generar

Más detalles

ESTADISTICA II. INGENIERIA INFORMATICA, 3 ER Curso

ESTADISTICA II. INGENIERIA INFORMATICA, 3 ER Curso ESTADISTICA II INGENIERIA INFORMATICA, 3 ER Curso 22 - Diciembre - 2.006 Primera Parte - Test Apellidos y Nombre:... D.N.I. :... Nota : En la realización de este examen sólo esta permitido utilizar calculadoras

Más detalles

Análisis de datos Categóricos

Análisis de datos Categóricos Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores

Más detalles

La asignatura proporciona al alumno los conceptos básicos de estadística. Se organiza el temario en cinco unidades.

La asignatura proporciona al alumno los conceptos básicos de estadística. Se organiza el temario en cinco unidades. 1.- DATOS DE LA ASIGNATURA. Nombre de la asignatura: Carrera: Clave de la asignatura: Muestreo y Regresión. Ingeniería Forestal. FOC-1027 SATCA: 2 2 4 2.- PRESENTACIÓN. Caracterización de la asignatura.

Más detalles

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA

MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II DISTRITO ÚNICO DE ANDALUCÍA CONTENIDOS Y OBJETIVOS MÍNIMOS PARA EL CURSO 2007/08. 1. INTRODUCCIÓN A LOS CONTENIDOS. ( Decreto 208/2002. B.O.J.A. de 20.08.02

Más detalles

DEPARTAMENTO DE MATEMÁTICAS. IES GALLICUM

DEPARTAMENTO DE MATEMÁTICAS. IES GALLICUM UNIDAD I: NÚMEROS (6 Horas) 1.- Repasar el cálculo con números racionales y potencias de exponente entero. 2.- Resolver problemas de la vida cotidiana en los que intervengan los números racionales. 1.-

Más detalles

ESTADISTICA INFERENCIAL

ESTADISTICA INFERENCIAL ESTADISTICA INFERENCIAL CODIGO 214543 (COMPUTACION) 224543 (SISTEMAS) 254443 (CONTADURIA) 264443 (ADMINISTRACION) 274443( GRH) HORAS TEORICAS HORAS PRACTICAS UNIDADES CREDITO SEMESTRE 02 02 03 IV PRE REQUISITO

Más detalles

El Movimiento Browniano en la modelización del par EUR/USD

El Movimiento Browniano en la modelización del par EUR/USD MÁSTER UNIVERSITARIO EN DIRECCIÓN FINANCIERA Y FISCAL TESINA FIN DE MÁSTER El Movimiento Browniano en la modelización del par EUR/USD Autor: José Vicente González Cervera Directores: Dr. Juan Carlos Cortés

Más detalles