ESTADISTICA Y PROBABILIDAD



Documentos relacionados
LA MEDIDA Y SUS ERRORES

CUESTIONES DE AUTOEVALUACIÓN (TEMA 1)

TEMA 5. MUESTREO PARA LA ACEPTACIÓN.

ESFUERZO Y DEFORMACION

ESTIMACIÓN. puntual y por intervalo

MEDIDAS DE DISPERSIÓN EMPLEANDO EXCEL

Métodos generales de generación de variables aleatorias

1.1. Introducción y conceptos básicos

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS

Selectividad Septiembre 2013 OPCIÓN B

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

Variables aleatorias continuas

Asignatura: Econometría. Conceptos MUY Básicos de Estadística

Sistemas de Generación de Energía Eléctrica HIDROLOGÍA BÁSICA. Universidad Tecnológica De Pereira

Anexo 4. Herramientas Estadísticas

Tema 1: Test de Distribuciones de Probabilidad

Tema 5. Variables aleatorias discretas

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice

Covarianza y coeficiente de correlación

ANÁLISIS DE DATOS CONTROL DE CALIDAD. Ing. Carlos Brunatti

Análisis y cuantificación del Riesgo

Parámetros y estadísticos

Inferencia Estadística

CORRELACIÓN Y REGRESIÓN EMPLEANDO EXCEL Y GRAPH

TASACION DE INMUEBLES URBANOS

Documento no controlado, sin valor

GUÍA DE EJERCICIOS UNIDAD II

UNIDAD I NÚMEROS REALES

POR QUÉ EL VALOR PRESENTE NETO CONDUCE A MEJORES DECISIONES DE INVERSIÓN QUE OTROS CRITERIOS? ( Brealey & Myers )

1. Introducción a la estadística 2. Estadística descriptiva: resumen numérico y gráfico de datos 3. Estadística inferencial: estimación de parámetros

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

"CONTRASTES DE HIPÓTESIS" 4.4 Parte básica

PRUEBAS DE HIPÓTESIS

1 Introducción Distribución exponencial Distribución Weibull Distribuciones Gamma y k-erlang... 10

MANUAL SIMPLIFICADO DE ESTADÍSTICA APLICADA VIA SPSS

Otras medidas descriptivas usuales

PRUEBAS NO PARAMÉTRICAS

UNIVERSIDAD DE ATACAMA

Intervalo para la media (caso general)

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Medidas de tendencia central o de posición: situación de los valores alrededor

Tema 7. Límites y continuidad de funciones

Los números racionales

Muestreo. Introducción

Finanzas de Empresas Turísticas

ANÁLISIS DESCRIPTIVO CON SPSS

35 Facultad de Ciencias Universidad de Los Andes Mérida-Venezuela. Potencial Eléctrico

Tema 10. Estimación Puntual.

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual

3.1 Metodología de la investigación

1-Comportamiento de una función alrededor de un punto:

LA DISTRIBUCIÓN NORMAL, LA CALCULADORA Y LAS NUEVAS TECNOLOGÍAS Abel Martín ( * ) Rosana Álvarez García ( )

Población, Unidad de Análisis, Criterios de Inclusión y Exclusión.

DESARROLLO DE LA PROGRAMACIÓN PARA 4º ESO Opción B. Bloque 1. Contenidos comunes.

CAPITULO II CARACTERISTICAS DE LOS INSTRUMENTOS DE MEDICION

La Evaluación como Proceso Comparación de Costos y Beneficios. Pedro Misle Benítez / Gustavo Briceño Torres

LÍMITES DE FUNCIONES. CONTINUIDAD

CURSO DE ESTADISTICA Y HERRAMIENTAS PARA ANALISIS. Estadística y Herramientas cuantitativas. Obligatoria NÚMERO DE CREDITOS: 2

Regresión múltiple. Modelos y Simulación. I. Introducción II. Marco teórico III. Aplicación IV. Conclusiones V. Bibliografía

Capítulo 10. Análisis descriptivo: Los procedimientos Frecuencias y Descriptivos

Tema 1. Inferencia estadística para una población

Material preparado por: C.P. Raúl H. Vallado Fernández, M.F. Rhvf. 1

UNIVERSIDAD DE ATACAMA FACULTAD DE INGENIERÍA / DEPARTAMENTO DE MATEMÁTICA

Control de calidad del. Ciudad de La Rioja Mayo 2013

OPCIÓN A 0 1 X = Podemos despejar la matriz X de la segunda ecuación ya que la matriz. 1 1 ; Adj 0 1 X =

Diagnosis y Crítica del modelo -Ajuste de distribuciones con Statgraphics-

Decisión: Indican puntos en que se toman decisiones: sí o no, o se verifica una actividad del flujo grama.

Capítulo 3. Estimación de elasticidades

Este procedimiento también crea una escala cusum grafica para datos individuales monitoreando la variabilidad del proceso.

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

UNIDAD 4: MEDIDAS DE TENDENCIA CENTRAL

UNIVERSIDAD NACIONAL ESCUELA DE CIENCIAS AMBIENTALES PROGRAMA DE ESTUDIOS EN CALIDAD, AMBIENTE Y METROLOGÍA

Indicadores de la Variable.- Son aquellas cualidades o propiedades del objeto que pueden ser directamente observadas y cuantificadas en la práctica.

GERENCIA DE INTEGRACIÓN

UNIDAD 4. Producción: proceso por el cual los insumos se combinan, se transforman y se convierten en productos.

Capítulo II Marco Teórico CAPÍTULO II

1.4.- D E S I G U A L D A D E S

Probabilidad y Estadística Profesorados y Licenciatura en Computación Guía N 1: Estadística descriptiva

Estadística aplicada y modelización. 15 de junio de 2005

Introducción a la estadística y SPSS

LÍMITES Y CONTINUIDAD

CAPITULO 4 JUSTIFICACION DEL ESTUDIO. En este capítulo se presenta la justificación del estudio, supuestos y limitaciones de

Control de calidad del Hormigón

Diana del Pilar Cobos del Angel. Experimento: Es una prueba o ensayo. Es el proceso de obtener una observación.

NÚMEROS NATURALES Y NÚMEROS ENTEROS

7.- PRUEBA DE HIPOTESIS

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES

ESTADÍSTICA SEMANA 4

Una función f es derivable en un punto a de su dominio si existe el límite. f(x) f(a) Si f y g son derivables en a, entonces fg es derivable en a y

Matemáticas para la Computación

HERRAMIENTAS DE APOYO PARA LA IMPLEMENTACIÓN DE LA GESTIÓN POR PROCESOS EN EL MARCO DE LA POLÍTICA NACIONAL DE MODERNIZACIÓN DE LA GESTIÓN PÚBLICA

CAPITULO VI EVALUACION DEL DESEMPEÑO

P9: ENSAYO DE VACÍO Y CORTOCIRCUITO DEL TRANSFORMADOR MONOFÁSICO FUNDAMENTOS DE TECNOLOGÍA ELÉCTRICA

Figura 1.12 Señalización analógica y digital de datos analógicos y digitales.

GRAFICOS DE CONTROL DATOS TIPO VARIABLES

Una desigualdad se obtiene al escribir dos expresiones numéricas o algebraicas relacionadas con alguno de los símbolos

Tema 3. Variables aleatorias. Inferencia estadística

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones

MATEMÁTICAS BÁSICAS UNIVERSIDAD NACIONAL DE COLOMBIA - SEDE MEDELLÍN CLASES # 13 y #14

Transcripción:

ESTADISTICA Y PROBABILIDAD Introducción Para incrementar los conocimientos que se tienen acerca del mundo es necesario emplear los métodos y las inferencias estadísticas. Sin embargo debido a la amplitud y profundidad de la materia, es conveniente escoger los métodos pertinentes a la finalidad que se persigue. La estadística es una ciencia que comprende la recopilación, tabulación, análisis e interpretación de un grupo de datos cuya principal característica es que el valor de una variable tiene muchos valores posibles. El proceso estadístico incluye determinar las características del grupo de datos (procesos descriptivos), realizar estimaciones y verificar hipótesis mediante las cuales se determinan valores esperados o probables (procesos inferenciales). Los procesos descriptivos se refieren a la presentación del conjunto de datos de tal forma que se puedan comprender e interpretar. Por otra parte, los procesos inferenciales permiten obtener la máxima información de una prueba dada. El empleo de la estadística es necesario cuando se hacen pruebas de laboratorio, trabajos de producción y de construcción, ya que permite por ejemplo conocer si el cambio en la dosificación afecta las propiedades del producto, saber si la variabilidad se ajusta a los valores estipulados, discriminar si un producto deficiente es debido a errores en la producción o está dentro de lo esperado. Las herramientas estadísticas permiten planificar los ensayos y manejar los resultados (Kennedy y Neville, 1982; Porrero, Ramos, Grases y Velazco, 2009). Distribución de Frecuencias Al registrar cualquier medición de laboratorio, se obtendrá un conjunto de datos diferentes que debe ser interpretado, analizar cada valor no proporciona ninguna información; ordenar los valores según vayan apareciendo permite estudiar la secuencia, obtener el máximo y mínimo pero el proceso matemático para analizar estos datos no agrupados es complejo. Es por ello que la distribución de frecuencias permite agrupar los datos en categorías o clases mostrando el número de elementos o frecuencia en cada clase. El procedimiento para realizar la distribución de frecuencias consiste en: 1. Decidir cuantas clases se van a utilizar para agrupar los datos (por lo general debe ser mayor de 5 y menor de 15), estos depende de la diferencia entre el máximo y mínimo del grupo de valores el cual se denomina rango (d). Un valor práctico es el sugerido en la Ecuación 1 por Sturges,

=1+3,3log (1) k número de intervalos, n número de datos. 2. elegir los límites de cada clase, 3. determinar el número de datos que pertenecen a cada clase (frecuencia). Representación grafica Una manera útil de representar los datos arreglados es mediante histogramas de frecuencias, el cual es un gráfico donde se representa la frecuencia de cada clase con una barra. El gráfico da una visión de la amplitud de los datos, la mayor frecuencia, la dispersión alrededor de los valores centrales. Otra representación gráfica de los datos es la distribución de frecuencias acumuladas, la cual se obtiene al sumar las frecuencias hasta la clase considerada, estos puntos se unen por lo general con una línea recta (Benjamin y Cornell, 1981; Kennedy y Neville, 1982). Ejemplo 1 Agrupar los resultados de los cilindros de concreto Tabla 1. Resultados de la resistencia de cilindros de concreto f c = 210 kgf/cm 2 Datos no agrupados 273.74 306.74 280.83 294.24 305.54 306.91 317.61 290.28 313.95 264.61 290.14 270.22 Tabla 2. Distribución de frecuencia de los datos de la Tabla 1 Máximo 317,61 Mínimo 264,61 Intervalo de clase 10,8 Clase f fa 264.00 274.80 3 3 274.81 285.60 1 4 285.61 296.40 3 7 296.41 307.20 3 10 307.21 318.00 2 12

3.5 14 3 12 2.5 10 2 8 f 1.5 6 fa 1 4 0.5 2 0 270.50 281.00 291.50 302.00 312.50 323.00 0 260.00 270.51 281.01 291.51 302.01 312.51 f c Figura 1. Histograma de frecuencia y frecuencia acumulada de Tabla 2. Medidas del conjunto de datos Medidas de la tendencia central Un valor representativo de un conjunto de datos es conocido como medida de la tendencia central o promedio, existen varios tipos de promedios que son: media aritmética, media aritmética ponderada, media geométrica, media armónica, media cuadrática, mediana y moda. De los tipos citados el más simple y útil es la media aritmética. Media aritmética simple La media es un valor representativo ya que es similar al centro de gravedad de los datos, se define como la suma de todos los datos dividida entre el total de los datos, se expresa como: = media aritmética, x valor del dato, n número de datos (Chou, 1972; Benjamin y Cornell, 1981). (2) Media aritmética de una distribución de frecuencias La manera de calcular la media aritmética según la Ecuación 2, solo es útil si el valor de n es pequeño. Para muestras grandes el método es laborioso y está sujeto a errores; por ello realizar el cálculo a partir de la distribución de frecuencias resulta más sencillo. El método consiste en:

1. Determinar los puntos medios de cada intervalo o marca de clase (m), 2. multiplicar la frecuencia de la clase por la correspondiente marca de clase (fm), 3. realizar la sumar de los productos fm para obtener Σfm, 4. emplear la Ecuación 3 para determinar la media aritmética. = (3) Media aritmética ponderada En ocasiones, es necesario asignar un valor apropiado a cada clase que difiere de los demás asignados a las otras clases, por lo que deben ser tomados en cuenta al calcular la media para obtener un valor más preciso (Chou, 1972). w i valor asignado a la clase i. = (4) Medidas de dispersión El empleo de un solo valor para representar un conjunto de datos es insuficiente, ya que los conjuntos de datos presentan diferencias con respecto al valor central. Es por ello que se debe representar el grado de dispersión de los datos con respecto al valor central, para así obtener una descripción más precisa del conjunto de datos. Es importante señalar que la variación es la característica más importante de un conjunto de datos, de estas medida la más representativa es la desviación estándar, otras medidas son la varianza y la desviación media. Desviación estándar La desviación estándar es la raíz cuadrada de la varianza (s 2 ); siendo la varianza el promedio de las diferencias con respecto al valor medio elevado al cuadrado para evitar los valores negativos de la diferencia. = (5) s desviación estándar del conjunto de datos. Desviación estándar de una distribución de frecuencias De manera similar a la media aritmética, cuando el tamaño de la muestra es grande, es útil agrupar los datos, por lo tanto se debe tener una expresión que determine la desviación estándar en datos agrupados (Chou, 1972; Miller, Freund y Johnson, 1992; Porrero et. al., 2009).

= (6) Rango ponderado El rango ponderado permite obtener una estimación del límite superior de la desviación estándar, es función del rango d y un estadístico k r que es función del número de datos. Este rango es útil cuando se dispone de pocos valores. = (7) Tabla 3. Valores del estadístico kr Numero de datos Factor k r 2 0,8865 3 0,5907 4 0,4857 5 0,4299 6 0,3946 7 0,3698 8 0,3512 9 0,3367 10 0,3249 Coeficiente de variación El coeficiente de variación es la relación entre la desviación estándar y la media, este valor expresa la dispersión y es muy usado, por lo general se expresa como porcentaje (Porrero et. al., 2009). Medidas de asimetría = 100 (8) La forma de un histograma de frecuencia puede ser simétrica o asimétrica, por lo tanto es útil determinar el grado de asimetría para obtener una característica adicional a las dos medidas anteriores. g 1 Coeficiente de asimetría. = (9) El coeficiente g 1 es positivo para histogramas deformados a la derecha (colas más largas a la derecha) y negativo para los deformados a la izquierda. Si existe simetría el coeficiente de asimetría es igual a cero, pero esto no indica que el histograma sea simétrico (Benjamin y Cornell, 1981).

De esta forma al obtener los valores de, s y g 1 se tiene una idea de la forma del histograma, por lo que proporcionan información sobre un conjunto de datos. Cuantiles Para un conjunto de datos se puede considerar puntos que dividen las observaciones en partes iguales, esta división se denomina cuantil, de manera que la cantidad representa el número de observaciones por debajo del enésimo cuantil, en contraste por encima tenemos el total de la población menos el número de observaciones por debajo. Por ejemplo la mediana que divide en dos el conjunto de datos. Otro ejemplo son los cuartiles que dividen el conjunto de datos en cuatro partes, de manera que para el primer cuartil (25%) tenemos el primer 25% de las observaciones, en el segundo cuartil tenemos el 50% de las observaciones (Miller, Freund y Johnson, 1992; Kennedy y Neville, 1982). Elementos de la teoría de probabilidades Todos los fenómenos de la naturaleza presentan dispersión en los resultados, la teoría de las probabilidades trata lo aspectos donde existe incertidumbre en los resultados identificando las variables como aleatorias. Para realizar una revisión de la teoría de probabilidades es necesario establecer los conceptos básicos de esta teoría. Espacio muestral y sucesos Se denomina espacio muestral al conjunto de todos los posibles resultados de un experimento, mientras que un suceso en un subconjunto del espacio muestral. Axiomas de probabilidad La probabilidad de que un suceso ocurra debe satisfacer las siguientes tres condiciones. Axioma I La probabilidad de un suceso es un número mayor o igual a cero pero menor o igual a la unidad. Axioma II 0 1 (10) La probabilidad de un suceso seguro o probabilidad del espacio muestral es la unidad. =1 (11)

Axioma III La probabilidad de un suceso que sea la unión de de dos sucesos mutuamente excluyentes, es la suma de las probabilidades de los dos sucesos. Variables aleatorias =+ (12) Se llama variable aleatoria, a una magnitud cuyo valor no puede predecirse con certeza antes de que ocurra, por lo tanto su comportamiento se caracteriza mediante las leyes de probabilidades. La forma más común de realizarlo es mediante las distribuciones de probabilidades para una variable aleatoria, el cual es una función que proporciona los posibles resultados de un experimento. f fa FP FDA Figura 2. Variable aleatoria discreta representada por la función de densidad y la función de distribución acumulada. f fa FDP FDA Figura 3. Variable aleatoria continua representada por la función de densidad y la función de distribución acumulada.

Las variables aleatorias se dividen en dos tipos: discretas y continuas, las cuales se representan por una función de probabilidades (FP) o por una función de densidad de probabilidades (FDP) 1 que se denota como f(x) y función de distribución acumulada (FDA) 2 que se denota como F(x) (Benjamin y Cornell, 1981; Miller, Freund y Johnson, 1992; Kennedy y Neville, 1982). Distribución Normal Para muchos fines es preferible definir el conjunto de valores de una variable aleatoria mediante una función o distribución de probabilidades que mediante distribución de frecuencias. Dado que la probabilidad del espacio muestral es igual a 1, el área bajo la curva de una distribución es la unidad. Existen varios tipos de distribuciones a los cuales se puede ajustar una variable aleatoria, una de estas distribuciones se denomina Normal. f Figura 4. Forma de la distribución Normal. Este tipo de distribución es importante ya que según el teorema del límite central tenemos que en condicione generales cuando la suma del número de variables se hace grande, la distribución de la suma de las variables se acerca a la distribución normal, por ello se puede emplear este tipo de distribución sin conocer la distribución de la variable así como el número de datos. = = (13) =Φ con y s (14) 1 FP se aplica a las variables aleatorias discretas y FDP para el caso de variables aleatorias continuas. La FP proporciona la probabilidad de ser igual a un valor dado de la variable aleatoria mientras que FDP proporciona la frecuencia estandarizada (f/n) para un valor dado de la variable aleatoria. 2 Función que proporciona la probabilidad por debajo de un valor dado de la variable aleatoria o probabilidad acumulada.

Función de densidad de probabilidades normal = Φ Función de distribución acumulada normal Φ = Tabla 4. Valores de p de una distribución normal estándar, p z p z p z p z 0,00058-3,25 0,05480-1,60 0,51994 0,05 0,95543 1,70 0,00069-3,20 0,06057-1,55 0,53983 0,10 0,95994 1,75 0,00082-3,15 0,06681-1,50 0,55962 0,15 0,96407 1,80 0,00097-3,10 0,07353-1,45 0,57926 0,20 0,96784 1,85 0,00114-3,05 0,08076-1,40 0,59871 0,25 0,97128 1,90 0,00135-3,00 0,08851-1,35 0,61791 0,30 0,97441 1,95 0,00159-2,95 0,09680-1,30 0,63683 0,35 0,97725 2,00 0,00187-2,90 0,10565-1,25 0,65542 0,40 0,97982 2,05 0,00219-2,85 0,11507-1,20 0,67364 0,45 0,98214 2,10 0,00256-2,80 0,12507-1,15 0,69146 0,50 0,98422 2,15 0,00298-2,75 0,13567-1,10 0,70884 0,55 0,98610 2,20 0,00347-2,70 0,14686-1,05 0,72575 0,60 0,98778 2,25 0,00402-2,65 0,15866-1,00 0,74215 0,65 0,98928 2,30 0,00466-2,60 0,17106-0,95 0,75804 0,70 0,99061 2,35 0,00539-2,55 0,18406-0,90 0,77337 0,75 0,99180 2,40 0,00621-2,50 0,19766-0,85 0,78814 0,80 0,99286 2,45 0,00714-2,45 0,21186-0,80 0,80234 0,85 0,99379 2,50 0,00820-2,40 0,22663-0,75 0,81594 0,90 0,99461 2,55 0,00939-2,35 0,24196-0,70 0,82894 0,95 0,99534 2,60 0,01072-2,30 0,25785-0,65 0,84134 1,00 0,99598 2,65 0,01222-2,25 0,27425-0,60 0,85314 1,05 0,99653 2,70 0,01390-2,20 0,29116-0,55 0,86433 1,10 0,99702 2,75 0,01578-2,15 0,30854-0,50 0,87493 1,15 0,99744 2,80 0,01786-2,10 0,32636-0,45 0,88493 1,20 0,99781 2,85 0,02018-2,05 0,34458-0,40 0,89435 1,25 0,99813 2,90 0,02275-2,00 0,36317-0,35 0,90320 1,30 0,99841 2,95 0,02559-1,95 0,38209-0,30 0,91149 1,35 0,99865 3,00 0,02872-1,90 0,40129-0,25 0,91924 1,40 0,99886 3,05 0,03216-1,85 0,42074-0,20 0,92647 1,45 0,99903 3,10 0,03593-1,80 0,44038-0,15 0,93319 1,50 0,99918 3,15 0,04006-1,75 0,46017-0,10 0,93943 1,55 0,99931 3,20 0,04457-1,70 0,48006-0,05 0,94520 1,60 0,99942 3,25 0,04947-1,65 0,50000 0,00 0,95053 1,65.

Al observar la forma de la distribución Normal (véase Figura 4) se observa que hay mayor frecuencia para los valores cercanos a la media, mientras que para valores alejados de la media, la frecuencia va decreciendo (Porrero et al, 2009). Como la Ecuación 13 no puede ser integrada, la probabilidad se calcula mediante procedimientos de cálculo numérico, que se representan en tablas especiales (véase Tabla 4). Estas tablas corresponden a la distribución normal estándar, donde la variable aleatoria x se transforma en una variable z con la propiedad que =0 y s z =1, la transformación se realiza mediante la Ecuación 15 (Miller, Freund y Johnson, 1992; Kennedy y Neville, 1982). Z= ; (15) = = ; (16) Φ= si x=0 y s =1 (17) El cálculo de probabilidades usando la distribución Normal Otras distribuciones de variables aleatorias Dentro los modelos probabilísticos más comunes que se pueden emplear en el campo de la ingeniería civil está la distribución de Bernoulli, Binomial, Geométrica, Poisson, Exponencial, Gamma, Uniforme, Log-Normal, Valores Extremos, t de student, Chi cuadrado y F. A continuación se indican solo la FDP y FDA de la distribución uniforme y log-normal. Uniforme = 0 ; = 0 0 < > (18) x= ; s = (19) Log Normal = =Φ (20) = =x (21) Si V x 0,20 =ln +1 ; =ln- (22)

Si V x <0,20 ; lnx (Nowak y Collins, 2000) (23) Tamaño de la muestra Un aspecto práctico de la teoría de probabilidades consiste en emplearla para resolver aspectos usuales del diseño y construcción de edificios, para ello conocer con certeza cuantas observaciones se necesitan para que las inferencias que se realicen sean confiables se convierte en una pregunta crucial. Para determinar el tamaño de una muestra donde la frecuencia se aproxime al valor de la probabilidad p se aplica la Ecuación 24 (Chou, 1972). n tamaño de la muestra, ε máxima diferencia entre la frecuencia de la muestra y la de la población, α nivel de confianza del resultado. (24) Tabla 5. Tamaño de muestra para distintos valores α y ε α ε n 0,90 0,001 2 500 000 0,005 100 000 0,010 25 000 0,050 1 000 0,100 250 0,95 0,001 5 000 000 0,005 200 000 0,010 50 000 0,050 2 000 0,100 500 0,98 0,001 12 500 000 0,005 500 000 0,010 125 000 0,050 5 000 0,100 1 250 Ajuste de curvas El principal objetivo de múltiples investigaciones estadísticas es efectuar predicciones, de preferencia basándose en ecuaciones matemáticas, para determinar la mejor línea de una serie de datos (x 1, y 1 ; x 2, y 2 ; x 3, y 3 ;.; x n, y n ). Por ello el principal interés es el estudio de la relación existente entre dos variables, y se denomina el valor de la variable aleatoria cuya distribución depende de x. Esta relación se denomina curva de regresión de y sobre x.

El principio en que se basa el ajuste de la mejor curva es el de mínimo cuadrados, donde se establece que si y es una función lineal de una variable independiente x, la posición más probable de una recta y=a+bx es tal que la suma de los cuadrados de las desviaciones de todos los puntos (x i,y i ) respecto a la línea es mínima. Existen casos donde la curva de regresión no es lineal, tales como curvas del tipo: exponencial (log y = log a + x log b), reciproca (= ), potencia (y=axb ), polinomio (y=b 0 +b 1 x+b 2 x 2 + +b p x p ). Ajuste lineal Para ajustar los datos a una recta cuya ecuación tiene la forma y=a+bx, los valores de m y b según los datos observados es luego de aplicar el métodos de los mínimos cuadrados. = (25) x,y Pares de datos. = (26) Ajuste polinómico Para ajustar los datos a un polinomio de grado p, los términos b i se obtienen mediante un sistemas de p+1 ecuaciones lineales con p+1 incógnitas (b 0, b 1, b 2,, b p ) para ajustar los datos a un polinomio. = + + + = + + + (27) donde: x,y Pares de datos, n Número de datos, p Grado del polinomio, b Coeficientes del polinomio de grado p. Correlación = + + + El ajuste de un conjunto de datos a una función no significa que realmente los datos sigan dicha función, por lo tanto se calculan las diferencias de la función con respecto a los datos para obtener un coeficiente que ilustre la diferencia. Se denomina coeficiente de correlación r a esta relación, la cual se determina por la Ecuación 28, este valor oscila entre 0 < r < 1, indicado que para r=0 no existe ninguna

relación entre las dos variables 3 y r=1 para una función que se ajusta perfectamente a los datos observados (Miller, Freund y Johnson, 1992; Kennedy y Neville, 1982). = (28) Aplicación de la estadística y probabilidad en el control de calidad del concreto El esfuerzo del concreto se puede identificar como una variable aleatoria ya que los valores que se obtienen en los ensayos no son iguales al proyectado en el cálculo y son diferentes entre sí, esta discrepancia es normal que ocurra durante la construcción, pero se genera el inconveniente al rechazar algunas muestras que no cumplan con los requisitos del proyecto, establecer el valor de referencia que genera la desaprobación de la muestra requiere varias consideraciones, para ello las Normas COVENIN han establecidos parámetros basados en la teoría de probabilidad y estadística. En Venezuela el cuantil del 9% establece la fracción defectuosa de la resistencia del concreto, la cual requiere en caso de ocurrir evaluar las razones por la que está por debajo del cuantil. Resistencia promedio requerida Fcr El valor medio requerido en obra dependerá de la dispersión de los resultados y del cuantil que establece la fracción defectuosa. Según el Art. 5.4.2 de la Norma Covenin 1753-2003ª, la resistencia promedio se realiza según la Tabla 6, donde se emplea el mayor valor obtenido de las dos fórmulas. Tabla 6. Resistencia promedio requerida Fc Fc 350 kgf/cm 2 Fc> 350 kgf/cm 2 Fcr =+1,34 =+2,34 35 =+1,34 =0,9+2,34 Las fórmulas de la Tabla 6 provienen de la ecuación general a,b,c = = 1 35 =0,9 1 Fcr Valor medio requerido del esfuerzo a compresión del concreto, Fc esfuerzo de diseño del concreto indicado en las especificaciones de obra, (29a) (29 b) (29c) 3 Variables independientes.

z s valor correspondiente en la distribución normal estándar al cuantil de la fracción defectuosa, para cuantil del 9%, z=-1,341 (véase Tabla 7), desviación estándar de los ensayos de laboratorio. Tabla 7. Valores de z para diferentes cuantiles Cuantil 1% -2.326 2% -2.054 3% -1.881 4% -1.751 5% -1.645 6% -1.555 7% -1.476 8% -1.405 9% -1.341 10% -1.282 Valor a emplear de la desviación estándar z La dificultad que presenta el cálculo de Fcr radica en la medida de la dispersión de los resultados, ya que si se dispone de suficientes registros, las condiciones de medida deben ser reproducidas en las nuevas pruebas. Al respecto la Norma COVENIN establece las siguientes tres condiciones para considerar aceptables los registros de datos de 30 o más ensayos. Tabla 8. Factores de modificación para la desviación estándar cuando se dispone de menos de 30 ensayos consecutivos Número de Ensayos (*) Factor de Modificación Menos de 15 Usar Tabla 9 15 1.16 20 1.08 25 1.03 30 o más 1.00 (*) Interpolar para valores intermedios del número de ensayos. Nota: de Proyecto y Construcción de Obras en Concreto Estructural 1753-2003A por COVENIN, 2003 p. 31. 1. Representar los materiales, los procedimientos de control de calidad y condiciones similares a las que se esperan en obra, con cambios en los materiales y las dosificaciones en los registros de ensayo, tan amplios como aquellos que se esperan en la obra a construir; 2. representar un concreto cuya resistencia Fc esté dentro del límite de ± 70 kgf/cm 2 de la que se especifique para la obra a construirse; 3. representar por lo menos 30 ensayos consecutivos o dos grupos de ensayos consecutivos que totalicen por lo menos 30 ensayos (COVENIN, 2003).

Tabla 9. Resistencia promedio a la compresión Fcr cuando no se dispone de datos para establecer la desviación estándar Resistencia Promedio a la compresión requerida Fcr kgf/cm 2 Resistencia especificada a la compresión Fc, kgf/cm 2 Excelente Control de Calidad Control de Calidad Aceptable Sin Control de Calidad Menor de 210 kgf/cm 2 (1) Fc+45 Fc + 80 Fc + 130 De 210 a 350 kgf/cm 2 Fc + 60 Fc + 95 Fc + 170 Mas de 350 kgf/cm 2 Fc+ 75 Fc + 110 Fc + 210 (1) En áreas sísmicas Fc no será menor de 210 kgf/cm2 Nota: de Proyecto y Construcción de Obras en Concreto Estructural 1753-2003 A por COVENIN, 2003, p. 31. Tabla 10. Valores de la desviación estándar que son de esperar en el concreto, según el grado de control Descripción del grado de control s (kgf/cm 2 ) Sin ningún control (Inaceptable en estructuras de edificaciones) 70 Control visual de los agregados y rechazo de aquellos que aparentan muy mala 50 calidad o que son muy diferentes de los que se están usando. Control visual de las mezclas por la trabajabilidad aparente (Control Pobre) Como en el anterior, pero se conocen las granulometrías de los agregados que se 40 están usando por ensayos que se hicieron una vez; se es riguroso en el rechazo de agregados y se comprueban de vez en cuando los asentamientos de las mezclas con el Cono de Abrams (Control Intermedio) A cada lote de agregados se le determina algún índice granulométrico y de 32 calidad: sólo se aceptan los que estén dentro de ciertos límites pre-establecidos. Se controla la humedad de los agregados. Se tiene en cuenta la marca y lote de cemento. La dosificación es exclusivamente por peso; los sistemas de pesaje son automáticos y son calibrados ocasionalmente. El asentamiento con el Cono se mide sistemáticamente y se rechazan las mezclas que no estén dentro de ciertos límites. No se permite la adición de agua posterior al mezclado, ni el espesamiento de las mezclas por tiempo de espera (Control Bueno) Igual que el anterior pero con márgenes de aceptación muy estrictos. Uso de al 25 menos tres agregados de granulometrías complementarias. Limitación de la humedad de los agregados en el momento de su uso y. además, correcciones por humedad, lote y marca de cemento y aditivo, efectuadas mediante ajustes en el diseño. Revisión y calibración de los equipos de forma periódica y sistemática (Control Excelente) Nota: De Manual del Concreto Estructural por Porrero, J., Ramos, C., Grases, J. y Velazco, G., 2009, p. 338. Si se dispone de menos de 30 ensayos la desviación se corrige empleando la Tabla 8 y para casos donde no se dispone de datos para estimar la desviación estándar se emplea la Tabla 9 que proporciona fórmulas para Fcr. Por otra parte la Tabla 10 presenta el valor esperado de s. Cabe destacar que al aplicar los valores de la Tabla 10, por seguridad se recomienda aumentarlos en un 30% para estimar Fcr, pero una vez se haya comenzado el proceso de ensayos de mezclas, los valores de s deben ser sustituidos por los obtenidos de las pruebas.

Al tomar varias muestras de una mezcla se puede calcular la dispersión por disponer de varios resultados, si se hacen otras muestras provenientes de las distintas mezclas que se realizan en un vaciado se obtienen distintos valores de s e. El valor promedio de s e de la Ecuación 30 será válido si se obtiene de más de 30 cilindros proveniente de al menos 10 mezclas diferentes y debe ser el empleado en la Ecuación 29 para el cálculo de la resistencia requerida. Los valores típicos de s e se indican en la Tabla 11. = (30) Tabla 11. Desviación estándar de los ensayos se Tipo de control Ensayos hechos en Pobre Intermedio Excelente Obra 15 9 a 12 8 Laboratorio 12 7 a 9 5 Nota: De Manual del Concreto Estructural por Porrero, J., Ramos, C., Grases, J. y Velazco, G., 2009, p. 341. Criterios de rechazo Al disponer de pocos ensayos el valor de Fcr es impreciso, por lo que existe un intervalo de confianza que va disminuyendo conforme aumenta el número de ensayos (véase Figura 5). El intervalo de confianza de Fcr se obtiene de aplicar los conceptos de estimación del intervalo de confianza de la media poblacional, que aplicado al control de calidad del diseño de mezcla tenemos: =± n número de ensayos, z valor correspondiente a una confiabilidad determinada por la Tabla 12. (31) Tabla 12. Valores de z correspondiente a un intervalo de confianza Intervalo de confianza z 90% 1,645 95% 1,960 98% 2,326 Los criterios para que un ensayo individual de concreto sea aceptado son dos. El primer criterio se refiere al valor mínimo de un ensayo (véase Ecuación 32a) mientras que el segundo criterio se refiere al valor mínimo de la media de tres ensayos consecutivos (véase Ecuación 32b). En caso de no cumplir con estos criterios se debe comprobar si los ensayos fueron bien realizados, al detectar alguna falla se considera estos ensayos nulos y no forman parte del conjunto de datos para el análisis estadístico. Criterio 1 35 = + = 1,341 (32a)

Criterio 2 =+ 3 2,32 (32b) Fcr 0 10 20 30 40 50 Figura 5. Relación entre el número de ensayos y la precisión de Fcr. n Por otra parte, si el número de ensayos es mayor de 30 y no hay falla en los ensayos se debe considerar si la baja calidad del concreto afecta la seguridad o durabilidad de la obra, esto dependerá del porcentaje de la muestra que no cumple así como la ubicación en la estructura (Porrero et. al., 2009). Referencias Benjamin, J. y Cornell, C. (1981). Probabilidad y Estadística en Ingeniería Civil. Bogotá, Colombia: McGraw-Hill Latinoamericana, S.A. Chou. Y. (1972). Análisis Estadístico. México: Nueva Editorial Interamericana, S.A. de C.V. COVENIN (2003). Proyecto y Construcción de Obras en Concreto Estructural 1753-2003A.Caracas, Venezuela: Fonacit. Kennedy, J. y Neville, A. (1982). Estadística para Ciencias e Ingeniería. México D.F., México: Harla, S.A. de C.V. Miller, I., Freund, J. y Johnson, R. (1992). Probabilidad y Estadísticas para Ingenieros. Naucalpan de Juárez, México: Prentice-Hall Hispanoamericana, S.A. Nowak, A. y Collins, K. (2000). Reliability of Structures. EE.UU.: McGraw-Hill Companies, Inc. Porrero, J., Ramos, C., Grases, J. y Velazco, G. (2009). Manual del Concreto Estructural. Caracas, Venezuela: Sidetur.