Álgebra Lineal Tema 2 Mínimos cuadrados II Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J S ALAS, A T ORRENTE Y EJS V ILLASEÑOR
Índice general 2 Mínimos cuadrados II 2 Método general 2 22 Ejemplo práctico 4 I
Tema 2 Mínimos cuadrados II En este capítulo vamos a aplicar el método de los mínimos cuadrados a un caso más realista en el que las medidas experimentales tienen un cierto error estadístico En este tema se intentará introducir el menor número posible de conceptos de estadística y probabilidad Siguiendo con el ejemplo inicial del Tema 3 del curso, supongamos que tenemos dos magnitudes físicas X e Y que teóricamente satisfacen la ley: Y = α + β X, donde α, β R son ciertos parámetros que queremos estimar a partir de una serie de medidas experimentales En el Tema 3 considerábamos pares de medidas (x, y ), (x 2, y 2 ),, (x n, y n ) En este tema vamos a considerar la situación en la que conocemos el error estadístico σ i de cada medida y i y asumiremos que dichas medidas son estadísticamente independientes (es decir, no dependen unas de otras) Tenemos ahora tripletes de medidas (x, y, σ ), (x 2, y 2, σ 2 ),, (x n, y n, σ n ) y queremos estimar los valores óptimos de los parámetros α y β
2 Método general En el caso sin errores estadísticos, el método consistía esencialmente en minimizar la siguiente función n f(z) = A z b 2 = ɛ 2 i, donde ɛ i es la diferencia entre la predicción teórica dada por y i = (A z) i y la medida real b i En el ejemplo de la introducción la matriz A y el vector z toman la forma: x x 2 A =, z = (α, β) t x n i= Cuando tenemos errores estadísticos en las medidas experimentales, podemos generalizar estas ecuaciones de manera que el significado del vector z y la matriz A sean los mismos que en el Tema 3: el vector z contiene los r parámetros que queremos determinar y las entradas de la matriz A (de dimensión n r) son funciones de la magnitud física X En este caso la función que queremos minimizar es g(z) = n ((A z) i b i ) 2 σ 2 i= i = n ɛ 2 i σ 2 i= i, ya que lo que es físicamente relevante es el cociente entre los errores estadísticos de las medidas experimentales y las diferencias entre los valores experimentales y los teóricos Es decir, si una medida difiere de su valor teórico en una cantidad ɛ i, esta diferencia será poco relevante si ɛ i σ i ; pero sí será relevante cuando ɛ i σ i Para escribir esta ecuación en forma matricial, primero calculamos la llamada matriz 2
de covarianza de las medidas C Y = σ 2 0 0 0 σ 2 2 0 0 0 σ 2 n Esta matriz es diagonal porque las medidas de la magnitud Y son estadísticamente independientes entre sí Como nos interesa pesar las diferencias con el inverso de σ 2 i, definimos la matriz inversa G Y = C Y = La función g se puede re-escribir como σ 2 0 0 0 σ 2 2 0 0 0 σ 2 n g(z) = (A z b) t G Y (A z b), que se reduce a f cuando G Y es la matriz identidad Para calcular las ecuaciones que nos dan el valor mínimo de g usamos métodos similares a los del Tema 3 del curso El valor z 0 que minimiza g se escribe de forma compacta como: A t G Y A z 0 = A t G Y b Si la matriz A t G Y A es invertible, entonces la solución de este sistema z 0 es única y viene dada por: z 0 = (A t G Y A) A t G Y b Por supuesto, si G Y = I n, entonces esta ecuación se reduce a la derivada en el Tema 3 Además si G Y = α I con α R (es decir, todos los errores estadísticos son iguales), el resultado es exactamente igual al de los mínimos cuadrados habituales 3
22 Ejemplo práctico Supongamos que tenemos dos magnitudes físicas cuya dependencia teórica es Y = α + β X Hacemos cuatro medidas independientes y obtenemos la siguiente tabla de resultados i 2 3 4 x i 0 2 3 y i,4,5 3,7 4, σ i 0,2 0,4 0,4 0,2 Una representación gráfica de los valores experimentales (x i, y i ) está dada en la figura 2 Los errores estadísticos σ i se representan como una barra de error vertical que va del punto (x i, y i σ i ) al punto (x i, y i + σ i ) 5 4 Y 3 2 X 2 3 4 Figura 2: Representación gráfica de los datos experimentales (x i, y i, σ i ) con i 4 4
En este caso tenemos que G Y = 25 0 0 0 0 6,25 0 0 0 0 6,25 0 0 0 0 25, A = 0 2 3, b =,4,5 3,7 4, Haciendo los cálculos pertinentes resulta que z 0 = (α 0, β 0 ) t = (,372, 0,935) t Esta es la línea continua verde que aparece en la figura 22 Si ignoramos los errores estadísticos obtenemos otra solución z = (α, β ) t = (,3,,03) t Esta línea está representada en la figura 22 por una línea roja discontinua En la figura 22 se puede observar que la recta correspondiente a la solución de mínimos cuadrados con errores estadísticos se aproxima mucho más a los dos puntos con menores errores (ie, el primero y el último) que la recta correspondiente a la solución de mínimos cuadrados estándar La razón es que los puntos con menor error estadístico influyen en la solución mucho más que aquellos puntos con mayor error estadístico 5
5 4 Y 3 2 X 2 3 4 Figura 22: Representación gráfica de los datos experimentales (x i, y i, σ i ) con i 4 La línea roja discontinua marca la aproximación por mínimos cuadrados sin tener en cuenta los errores estadísticos La linea continua verde corresponde a la solución de mínimos cuadrados teniendo en cuenta dichos errores 6