Estimación puntual. Estadística aplicada a la empresa II Prof. D. Juan José Pérez Castejón

Save this PDF as:
 WORD  PNG  TXT  JPG

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Estimación puntual. Estadística aplicada a la empresa II Prof. D. Juan José Pérez Castejón"

Transcripción

1 Estimación puntual Estadística aplicada a la empresa II Prof. D. Juan José Pérez Castejón 1

2 ESTIMACIÓN PUNTUAL Tras hacernos a la idea en el tema anterior de lo que la inferencia estadística es y persigue, en este tema y en los que siguen, comenzaremos la revisión detenida de los diferentes métodos de llevarla a cabo. En particular, en el tema que ahora comienza comentaremos todo lo relacionado con la cuestión de la estimación puntual. La primera sección realmente estará dedicada a dar una visión general de los propósitos y forma de proceder de las distintas técnicas inductivas, y de las diferencias existentes entre ellas. Y también servirá para establecer algunas hipótesis generales bajo las que todas se realizarán. Las tres restantes secciones son las que verdaderamente se centran en la estimación puntual. La primera de las tres contiene una exposición de dos métodos de obtención del estimador, la herramienta fundamental para estimar. La segunda, define y comenta las propiedades básicas que los estimadores deben tener. La tercera, y última del tema, expone resultados acerca de cuáles de esas propiedades cumplen los estimadores que se ha aprendido a calcular. Las diferentes técnicas de inferencia estadística. La inferencia inductiva estadística, cuyos fines se expusieron en el tema anterior, se puede llevar a efecto a través de tres procedimientos diferentes, escogiéndose uno u otro según el tipo de resultado inductivo al que se quiera llegar. Son estos tres procedimientos los siguientes: estimación puntual; estimación por intervalos y regiones de confianza; y contraste de hipótesis. Realmente, procesos de carácter puramente inductivo son solamente los dos últimos, mientras que el primero sufre de algunas carencias que obligan a no considerarlo como tal. A pesar de ello, estudiaremos en este tema y en los siguientes, los tres, incluso el no estrictamente inductivo, ya que algunos de los resultados asociados a este último, son fundamentales para los otros dos. El proceso de estimación puntual consiste en lo siguiente. Sea c una cantidad unidimensional poblacional desconocida derivada de la distribución de la v.a. X que afecta a todos los individuos de la población. Supongamos que se precisa estimar c, esto es, obtener Prof. D. Juan José Pérez Castejón 2

3 una cantidad que aproxime lo mejor posible su verdadero valor. La forma habitual de conseguir esa estimación puntual pasa por seleccionar un estadístico muestral unidimensional T y tomar, como valor estimado de c, la realización muestral de T, t. Se dice entonces que ese estadístico T es el estimador puntual de c, ĉ = T. Si c no es unidimensional, sino que está compuesta de r componentes, c=(c 1,...,c r ), precisándose en ese caso una estimación de cada una de ellas, T entonces tendrá que tener el mismo número de componentes, T=(T 1,...,T r ), empleándose T i en la estimación de la correspondiente c i, ĉ = T. Sea c de nuevo la cantidad unidimensional citada antes. Supongamos que mejor que una estimación puntual de c, lo que se requiere es determinar un intervalo de la recta real del que podamos tener un cierto grado de confianza de que contenga a c. En tal caso se dirá que lo que se busca es una estimación por intervalo de confianza de c. Para hacerla es preciso determinar dos estadísticos muestrales T 1 y T 2 adecuados, cuyas realizaciones muestrales sirvan para establecer los extremos inferior y superior del intervalo. La estimación por confianza también cubre el caso general en el que c=(c 1,...,c r ), precisándose entonces una región de R r que contenga a c con un determinado nivel de confianza. El estadístico muestral que se escoja debe ser tal que su realización sirva para establecer los límites de esa región. No es necesario ser más preciso en la especificación del procedimiento para cantidades poblaciones de dimensión superior a 1 pues sólo se tratará ese caso, durante este curso, de manera marginal. El último de los tres procedimientos inductivos citados anteriormente, surge cuando lo que se plantea es cierta hipótesis acerca de c y existe la necesidad de desarrollar un criterio a partir del cual aceptar la validez o no de tal hipótesis. Se denomina contraste de hipótesis a una regla o criterio de decisión como el señalado. Los contrastes se construyen a partir de un estadístico muestral T, produciéndose la aceptación o rechazo de la hipótesis planteada según cuál sea el valor muestral de ese estadístico. El objetivo principal del presente tema es el de la introducción al primero de los tres procedimientos inductivos, el de la estimación puntual. A temas posteriores se retrasan introducciones análogas de los procedimientos de estimación por confianza y de contraste de hipótesis. i i Prof. D. Juan José Pérez Castejón 3

4 La mayor parte de la inferencia que se estudia en este tema y en los siguientes, es de tipo paramétrico. Se califica de esa manera a todo proceso inductivo que se lleva a cabo suponiendo de antemano que la variable poblacional X sigue cierta distribución poblacional continua o discreta, X~f π (x) ó p π (x), que ha sido especificada completamente excepto en lo que se refiere al valor de una cierta cantidad π, valor que es desconocido. π puede ser cierto número real o, incluso, un vector de k componentes, π=(π 1,...,π k ). Lo único que se conoce del valor de π es que cae dentro de cierto subconjunto de R k, π Π R k, subconjunto que se conoce con el nombre de espacio paramétrico. El fin general de la inducción paramétrica es aumentar la nuestro conocimientos sobre π mediante el análisis de la muestra de X disponible. La ventaja de la inferencia paramétrica radica en que los problemas que aborda pueden ser expresados siempre en términos del único elemento de la distribución poblacional desconocido, π, hecho que simplifica bastante todas las tareas a realizar. Como ya se ha dicho, de las técnicas que analicemos a continuación, solo una pequeña parte de ellas serán no parámetricas. Para concretar más este punto señalaremos que solo se revisarán algunas estimaciones de confianza de ese tipo, mientras que en lo que se refiere a los tests de hipótesis, uno de los dos temas dedicados a su presentación estará completamente inmerso en el ámbito no paramétrico. Hay que señalar también en este instante que los métodos que aquí revisaremos están situados dentro de la Inferencia Estadística Clásica, existiendo otra área de la Estadística Inductiva, la Estadística Inductiva Bayesiana, en la que no nos adentraremos. Como resultado de combinar el tipo de procedimiento inductivo que se estudia en este tema, la estimación puntual, con las hipótesis de partida de todas las técnicas paramétricas, podremos fijar ya de manera muy precisa el planteamiento y objetivos de las cuestiones y problemas que se tratan en las secciones siguientes. Supondremos que la variable poblacional es X~f π (x) ó p π (x) siendo π una cte. o vector de constantes de valor desconocido. Estaremos interesados en conseguir una estimación puntual de cierta cantidad poblacional de interés, c=h(π), cantidad que puede tener varias componentes h(π)=(h 1 (π),...,h r (π)). Las preguntas que surgen de forma inmediata son, cómo seleccionar el estimador, ĥ( π )?, qué Prof. D. Juan José Pérez Castejón 4

5 propiedades debe tener el estimador seleccionado para asegurarnos de que proporcione una buena estimación?. Las secciones siguientes son las que se dedican a responderlas. Señalemos antes de empezar, dos características que deben cumplir los estimadores, características que no se han podido señalar mientras que no se ha formalizado adecuadamente la hipótesis paramétrica de partida. Por razones obvias, un estimador nunca podrá depender de parámetros desconocidos, y en particular, nunca podrá depender del propio π. Y también resulta obvio que los valores que el estimador de h(π) puede tomar, deben estar incluidos en h(π) por ser este el conjunto donde se sabe que h(π) se encuentra. Métodos de estimación. Existen diferentes procedimientos para obtener estimadores. No siempre son todos aplicables a cualquier situación, dependiendo a veces el que se puedan emplear, de que se cumplan ciertas condiciones adicionales. Revisaremos a continuación dos de los de uso más general: el método de los momentos y el de máxima verosimilitud. Dos puntos importantes a tener en cuenta a la hora de decidir entre aplicar un determinado método de estimación u otro, son las posibilidades reales de poder llevar a efecto cada uno de ellos en la práctica, y las propiedades que tengan los estimadores que produzcan. Una vez que en secciones posteriores se analicen las propiedades deseables en los estimadores, se comentarán las que tienen los generados por los métodos de estimación que ahora se analicen. Por otro lado, si las dificultades técnicas permiten aplicar o no a una situación un método de estimación determinado, es algo que debe decidir el investigador combinando el análisis detenido de esa situación con su experiencia previa. METODO DE ESTIMACIÓN DE LOS MOMENTOS. Para presentar inicialmente este método, supondremos primero que la cantidad a estimar es el propio π, esto es, h(π)=π y k=r. Normalmente, es posible expresar las k componente de π en función de determinados momentos ordinarios de la distribución de Prof. D. Juan José Pérez Castejón 5

6 X. Supongamos por ejemplo, que eso se puede hacer recurriendo únicamente a sus k primeros momentos ordinarios. Si ello es así, tendremos π 1 =g 1 (E(X),E(X 2 ),...,E(X k )),..., π k =g k (E(X),E(X 2 ),...,E(X k )). El estimador de los momentos de cada π i se obtendrá sustituyendo en esas expresiones cada momento ordinario por su estimación natural, esto es, por el momento ordinario muestral O k : ˆπ 1=g 1 (O 1,...,O k ),..., ˆπ k =g k (O 1,...,O k ). Deben tenerse en cuenta dos puntos al aplicar lo señalado. Por un lado, como puede ocurrir que al expresar las π i como funciones de las E(X i ) sean válidas varias posibilidades según que se recurra a momentos de uno u otro orden, siempre se emplearán aquellas expresiones que empleen los momentos de ordenes más bajos posibles. Por otro, si de lo que se dispone son de igualdades que expresan las E(X i ) como función de las π i, al revés de cómo se indicó, las expresiones que se requieren se obtienen despejando los π i en esas igualdades. En general, cuando la cantidad a estimar h(π) es una función cualquiera de π, su estimador de los momentos se obtiene aplicando h a la estimación por los momento de π, ĥ (π)=h( πˆ ). METODO DE ESTIMACIÓN DE MÁXIMA VEROSIMILITUD. Igual que hicimos con el método de los momentos, la exposición de este otro método de estimación, comenzará por el caso en el que h(π)=π y k=r. Una idea intuitiva y bastante sencilla es la que subyace detrás del método de estimación de máxima verosimilitud, el mas popular y empleado de los métodos existentes. Con este método lo que se persigue es estimar como valor de π, aquel que hace mas probable (verosímil) la realización de la muestra que se observe. La mayor dificultad se va a encontrar a la hora de formalizar esa idea. El proceso de formalización se va a llevar a cabo a continuación. Sea una muestra (aleatoria o de cualquier otra clase) extraída de la población en estudio. Sea su función de probabilidad conjunta o su función de densidad, p π (x 1,...,x n ) o f π (x 1,...,x n ). De manera directa (caso discreto ) o proporcionalmente y de forma aproximada (caso continuo) esa función mide la probabilidad (verosimilitud) de que la muestra caiga en el punto (x 1,...,x n ) en el que se valore. Prof. D. Juan José Pérez Castejón 6

7 Como el tratamiento e interpretación que de ella se va a hacer, es el mismo tanto para poblaciones continuas como discretas, en lo que sigue adoptaremos siempre la notación del caso continuo y se escribirá siempre f π (x 1,...,x n ), aunque sin perdida de generalidad pues todo lo que se diga será aplicable también al caso discreto. La anterior función es una función determinista que tiene una particularidad en la que hasta ahora hemos hecho poco hincapié. Además de depender de las n variables (x 1,...,x n ), también es función de π. Esa dependencia lo que indica es que según los diferentes valores que puede tomar el parámetro desconocido, la probabilidad de que la muestra valga (x 1,...,x n ) es diferente, mayor o menor. Como función de él, se comporta como otra función ordinaria cualquiera, por ejemplo, tendrá sus asíntotas, maximos, minimos, opcionalmente será derivable, etc. Si se valora ahora esa función, no en el punto (x 1,...,x n ) que se desee, sino en lo que la muestra valga, (X 1,...,X n ), obtenemos una función que se denota como L π (X 1,...,X n )=f π (X 1,...,X n ). Dos hechos caracterizan a L π. Por una lado, el que sea una variable aleatoria pues el valor que toma dependerá de lo que a su vez valga la muestra, siendo el valor de esta última una cantidad de carácter totalmente aleatorio sin duda. Por otro lado, L π (X 1,...,X n ), por la interpretación de la función de densidad o probabilidad conjunta comentada antes, medirá la probabilidad de que la muestra tome el valor que de ella se observe. L π (X 1,...,X n ) se conoce como la función de verosimilitud de la muestra. Si alguna vez tenemos que manejar al mismo tiempo L π (X 1,...,X n ) y la función L π (x 1,...,x n )=f π (x 1,...,x n ) ó p π (x 1,...,c n ) definida inicialmente, las distinguiremos entre sí denominándolas, respectivamente, la versión aleatoria y determinista de la función de verosimilitud. Una vez definida L π, la estimación de π que se buscaba, se obtendrá sencillamente tomándola igual al valor de esa variable que maximiza L π : π ˆ = arg max L (X,..., X ). El estimador πˆ así obtenido, π Π Prof. D. Juan José Pérez Castejón 7 π 1 se conoce como el estimador máximo verosímil (e.m.v. de π). El problema de maximización planteado en la definición anterior, es el que al ser resuelto, elimina la dependencia de π que L π presenta y permite que el estadístico muestral n

8 arg max L π Π π (X,..., X 1 n ) sea, inicialmente, un estadístico aceptable para ser usado como estimador pues no depende de parámetros desconocidos. Por otro lado, resulta obvio que el mayor problema técnico que presentará la aplicación de la definición anterior, será precisamente la resolución de ese problema. Podríamos encontrarnos con un rango de situaciones que va desde las que no poseen solución, hasta las que poseen más de una. Hagamos a continuación algunos comentarios que pueden ser muy útiles para la tarea que hay que realizar: 1.- Como la función logaritmo es una función creciente y L π (X 1,...,X n )>0 siempre, se dará la igualdad siguiente: arg max logl (X,..., X ) = arg max L (X,..., X ). Por otro lado, la π Π π 1 n π Π experiencia demuestra que resolver la maximización de logl π (X 1,...,X n ) suele ser más sencillo que la de L π (X 1,...,X n ). Como norma, optaremos por resolver siempre la maximización de logl π. 2.- En este problema, se puede emplear las técnicas estándar de optimización. En especial, es aconsejable recurrir a resolver las condiciones de primer orden ( L π πi = 0) contrastando, mediante las de segundo orden, que la solución que se obtenga sea un máximo y no un mínimo. Sin embargo, hay que recordar que el uso de estas condiciones está sujeto a algunas limitaciones y cuidados. Destaquemos, que por un lado, un máximo solo está obligado a cumplirlas si tal máximo es realmente un punto interior del recinto de maximización, en este caso, Π. Mientras que, por otro lado, el cumplir las condiciones de primer y segundo orden no es condición necesaria de ser el máximo absoluto de una función, pudiéndose tratar solamente de un máximo local. Cuando la cantidad a estimar sea una función cualquiera h(π) del parámetro desconocido, el método correcto de estimación pasaría por redenominar a esa cantidad con otro nombre, por ejemplo, λ=h(π) y hacer una reparametrización de L π en términos de λ y de parámetros adicionales si fuera preciso. Una vez conseguido ese objetivo, se debería comenzar el proceso de estimación de λ desde el principio siguiendo todo el procedimiento explicado. π 1 n Prof. D. Juan José Pérez Castejón 8

9 Existe un caso importante en el que el procedimiento de estimación de h(π) explicado puede obviarse. Se trata de aquel en el que h sea una función inyectiva (y por ello, biyectiva sobre el nuevo espacio paramétrico, Λ=h(Π), al que pertenece λ). Si se da esa circunstancia y ya se ha hallado el estimador máximo verosímil de πˆ, es fácil demostrar que entonces el estimador de h(π) cumple que ĥ (π)=h( πˆ ). Propiedades de los estimadores. Como ha quedado establecido desde un principio, la estimación de h(π) no pretende coincidir con exactitud con el valor de esa cantidad, sino solo dar una buena aproximación estimación de ella. El anterior comentario queda reforzado aún más por el siguiente hecho. La estimación se extrae del valor de la realización muestral de un estadístico dado, y por ello lo que vale no será lo mismo según cual sea la realización que se obtenga al extraer la muestra. Si ese valor ni siquiera es siempre el mismo en todas las realizaciones muestrales posibles, no se puede pretender tampoco que sea igual a la cantidad a estimar. Llegados a este punto conviene entonces plantearse la siguiente cuestión. Puesto que la estimación que se obtenga va a depender de la realización muestral de cierto estimador, qué propiedades se le deben exigir a ese estimador para estar seguro de que tales realizaciones al menos un alto porcentaje de ellas sean una buena estimación de h(π)? Resolver una cuestión como esa traerá otros beneficios adicionales. En la sección anterior quedaba abierta la cuestión de qué criterios pueden seguirse a la hora de seleccionar un método de estimación u otro. Claramente, el escoger aquel que genere los estimadores de mejores propiedades debe ser uno de tales criterios, y de hecho debe ser uno de los de mayor importancia. PROPIEDAD DE INSESGADEZ. Como se ha razonado, no tiene sentido exigirle a un estimador que su realización muestral sea igual a h(π). Si no se le puede exigir tal cosa, sí que parece aconsejable que por lo menos se le pida que Prof. D. Juan José Pérez Castejón 9

10 si consideramos la media de todas sus realizaciones a lo largo de todas las muestras posibles esto es, su esperanza con ella obtengamos el valor que se quiera estimar. Esta propiedad es la que se conoce como la de insesgadez: E π (ĥ(π))=h(π). En caso de darse, al estimador se le califica de estimador insesgado. Hay que notar que como la distribución de la muestra depende del parámetro desconocido, ya que así ocurría con la de X, pasa lo mismo con la distribución de cualquier estadístico y con cualquiera de sus características, en particular con su esperanza Esto último, en la igualdad anterior se hace notar mediante el subíndice π. Como el verdadero valor de π es desconocido, la insesgadez de un estimador se dará solo si la igualdad anterior se cumple para π. Es posible incluso relajar aún más lo que exige la propiedad de insesgadez. Aunque la igualdad E π (ĥ(π))=h(π) no se cumpla de manera exacta, puede bastar con que se cumpla de manera aproximada, siendo tal aproximación mayor cuanto mayor sea la información muestral de la que se disponga tamaño muestral. Dicho de otra forma, también es admisible la propiedad de insesgadez asintótica: lim n E π (ĥ (π))=h(π). La insesgadez, al menos asintótica, es una las propiedades mínimas exigibles a un estadístico para que pueda ser considerado estimador de h(π). Conviene hacer en este momento un alto para establecer cierta terminología muy empleada al tratar las propiedades de los estimadores. Propiedades como la insesgadez, que se cumple para todo n independientemente de cómo de grande o pequeña sea esa cantidad, se denominan propiedades de muestra finita. Por su lado, las que son del tipo de la insesgadez asintótica, que lo que suponen es una aproximación más cierta cuanto mayor sea el tamaño muestral, se las conoce como propiedades asintóticas o de muestra grande. PROPIEDAD DE CONSISTENCIA. Aun siendo la insesgadez un requisito mínimo a exigir, no es sin embargo una propiedad que por sí sola garantice un estimador aceptable. Aunque la media del estimador sea igual a h(π), eso no garantiza que sus realizaciones muestrales no se alejen con Prof. D. Juan José Pérez Castejón 10

11 frecuencia de esa media, con lo que se permite la posible existencia de una alta probabilidad de estimaciones inexactas. Lo que se acaba de señalar viene a indicar que también se requiere una propiedad que controle el alejamiento entre los valores de ĥ (π) y h(π). Veamos qué propiedad puede ser esa, centrándonos primero en el caso en el que r=1 con lo que el estimador y la cantidad a estimar son ambos unidimensionales. Mas tarde la extenderemos al caso general. Aunque la distancia citada en los párrafos anteriores parece medida de manera natural por la cantidad ĥ (π) h(π), si en su lugar consideramos esta otra, (ĥ (π) h(π)) 2, obtendremos al final una medida de mejores propiedades algebraicas y estadísticas. Puesto que esa cantidad, que mide la distancia cuadrática entre h(π) y su estimación, es una magnitud que varia de muestra en muestra, y nuestro propósito es hacerla pequeña para el conjunto de todas las muestras, parece bastante evidente que nuestro interés debe dirigirse a hacer pequeña su media, esto es, E(ĥ (π) h(π)) 2. A partir de ahora a tal media la denominaremos error cuadrático medio asociado al estimador ĥ (π), ECM de ĥ (π). Intuitivamente debe entenderse como la distancia o diferencia cuadrática media a lo largo de todas las muestras posibles existente entre la cantidad a estimar y su estimación. Como ya se ha señalado, lo que interesa del ECM de un estimador es hacerlo pequeño. De todas formas, como no podemos hablar de una cantidad lo suficientemente pequeña que en cualquier problema pueda considerarse una cota aceptable del ECM, quizá sea mejor enfocar la propiedad buscada desde otro punto de vista ligeramente diferente. Lo que se puede exigir al estimador es que aumentando lo suficiente la información muestral disponible esto es, aumentando el tamaño muestral, el ECM se haga todo lo pequeño que se precise. Tal cosa implica que lim n ECM=0. Diremos que un estimador es consistente cuando cumpla esa igualdad asintótica. Es muy fácil demostrar la descomposición del ECM de cualquier estimador en la suma de las dos cantidades mayores o iguales que cero siguientes: ECM=var(ĥ (π))+(e π (ĥ(π))-h(π)) 2. Gracias a ella se puede concluir que condición necesaria y suficiente para que un estimador sea consistente, es que sea Prof. D. Juan José Pérez Castejón 11

12 asintóticamente insesgado además de tener una varianza que tienda a cero si n. En el caso de estimadores insesgados, se tendrá que ECM=var(ĥ (π)) y para demostrar su consistencia, bastará con comprobar que su varianza tienda a cero. Otra forma de entender la consistencia se obtiene al apreciar que su definición lo que exige es que la sucesión ĥ (π), que varía con el tamaño muestral, converja en media cuadrática a h(π). Cuando en temas anteriores se definieron los diferentes tipos de convergencia de una sucesión de vv.aa., se razonó que la consecuencia más importante de la convergencia en m.c. a una constante es que la sucesión de variables se concentre cada vez más y con mayor probabilidad alrededor de esa constante, conforme n crece. Existe una definición alternativa de la propiedad de consistencia, que lo único que requiere de ĥ (π) es que converja en probabilidad a h(π). Podemos diferenciar una y otra definición entre sí, llamandolas, respectivamente, consistencia en probabilidad y en m.c. Obviamente, la consistencia en m.c. implica consistencia en probabilidad. El nuevo tipo de consistencia se basa en una definición menos exigente que la expuesta inicialmente, y sin embargo ambas tienen la misma implicación fundamental sobre el comportamiento del estimador. De todas formas, nosotros hemos adoptado, como definición, la más estricta basada en la convergencia en m.c., pues a nuestro nivel, lo estimadores que empleemos serán consistentes en ambos sentidos y siempre es mas sencillo el trabajo con la consistencia en m.c. Cuando h(π) sea todo un vector de r componente diferentes, la definición de consistencia se extiende de forma natural exigiendo la consistencia de cada una de las r componentes de su estimador. Así, diremos que ĥ (π) es un estimador consistente de h(π), si cada una de sus componentes ĥ i (π) lo es de la correspondiente h i (π). PROPIEDAD DE EFICIENCIA Y DE MINIMA VARIANZA. La propiedad de insesgadez asintótica al menos y de consistencia, pueden considerarse como las propiedades mínimas exigibles a un estimador para ser considerado como tal. Se necesitaría ahora una propiedad adicional que permitiera seleccionar entre estimadores cuando hay disponibles varios de Prof. D. Juan José Pérez Castejón 12

13 ellos que cumplan esos requisitos mínimos. Una propiedad así es la que se analizará en esta sección. Para simplificar, supondremos que tanto π como h(π) son cantidades unidimensionales. Al final de la sección, levantaremos en parte esas restricciones. Lo que se hecha en falta es un criterio que ayude a comparar estimadores entre sí. Tal criterio lo puede suministrar el ECM asociado a un estimador y que ya empleamos antes. Antes de seguir, modifiquemos un poco la forma de denotarlo. Puesto que será necesario, en aquellas referencias al ECM en las que se precise añadiremos dos símbolos que nos recuerden que el valor de esa cantidad depende del parámetro y que se trata del error asociado a un determinado estimador: ECM π (ĥ (π)) Ya que el ECM es una medida del error cometido al estimar h(π), parece bastante lógico escoger para trabajar, aquellos estimadores con menor ECM. Por ello, dados dos estimadores ĥ 1 (π) y ĥ 2 (π), diremos que el primero es mejor que el segundo si ECM π (ĥ 1 (π))<ecm π (ĥ 2 (π)). Esa desigualdad debe ser cierta π. Cuando la clase de los estimadores a considerar se restringe aún un poco más, y se descartan todos aquellos que no son insesgados en muestra finita, es posible ahondar más en la definición anterior, y buscar el mejor de todos ellos. Dado un determinado ĥ (π) insesgado, diremos que es el estimador insesgado de mínima varianza uniformemente (e.i.m.v.u.) si para cualquier otro ĥ (π) se cumple que ECM π (ĥ (π)) ECM π (ĥ (π)). Esa desigualdad debe ser cierta π. La definición de e.i.m.v.u. resulta muy atractiva. Caso de existir, el e.i.m.v.u. es claramente el estimador que debería emplearse para estimar h(π). Hay que advertir, sin embargo, que la definición no nos asegura la existencia del e.i.m.v.u. Dos condiciones implícitas se exigen en ella. Por un lado, para que exista el e.i.m.v.u. debe existir una cota inferior para la varianza de los estimadores insesgados de h(π). Esa cota variará con π y si se denota como COTA(π), debe cumplir que COTA(π) ECM π (ĥ (π)) π y ĥ (π) insesgado. Pero además, debe ocurrir también que exista un estimador específico, ĥ (π), que será el e.i.m.v.u., que alcance expresamente esa cota: Prof. D. Juan José Pérez Castejón 13

14 COTA(π)=ECM π (ĥ (π)) π. En el momento en el que una de esas dos condiciones no se dé, y esto es factible que ocurra, no existiría tampoco el e.i.m.v.u. Cabe preguntarse hasta qué punto existen resultados que aseguren el cumplimiento de una u otra de las dos condiciones comentadas en el párrafo anterior. Esta cuestión ha sido analizada y fruto de su análisis surgió un resultado estadístico muy importante, el Teorema de Frechet, Cramer y Rao (FCR), que a continuación vamos a exponer. Su enunciado exige primero establecer las condiciones que debe cumplir una determinada situación estadística para que el teorema pueda ser aplicado. Esa es la tarea inicial que realizaremos aunque de manera muy resumida. Después enunciaremos el teorema en sí. Para empezar, indiquemos que seguiremos suponiendo todas las hipótesis que se han venido comentando referidas a la estimación que se pretende: las que afectan a la dimensión de π y de h(π), etc. Añadamos la condiciones siguientes: a) La distribución de la v.a. poblacional cumple que el conjunto donde su función de densidad o de probabilidad no se anula, es independiente de π. Por su lado, el espacio paramétrico Π debe ser un conjunto abierto, acotado o no subconjunto de R mientras sigamos suponiendo que π es unidimensional. b) La esperanza E( ln Lπ (X) π ) 2 existe. En esa expresión se emplea el símbolo de derivada parcial,, en lugar del derivada total que sería mas correcto al suponer π unidimensional. Lo hacemos para que al tratar después el caso de π multidimensional, las mismas expresiones que ahora se escriban sigan siendo válidas. c) Son ciertas varias condiciones de regularidad generales adicionales que no enunciaremos de manera detallada. Supuesto que todo lo anterior se cumple, el teorema comentado afirma: Prof. D. Juan José Pérez Castejón 14

15 Teorema (cota FCR).- Si ĥ (π) es un estimador insesgado entonces var π (ĥ(π))=ecm π (ĥ(π)) es π mayor o igual que la siguiente cota: cotafcr(π)=( h ( π) π) /( E( ln Lπ(X1,..., Xn ) π)) Además un cierto estimador ĥ (π) insesgado cumplirá que su varianza es de hecho igual a esa cota y por ello será el e.i.m.v.u si y solo si es cierta la siguiente descomposición: lnlπ (X1,..., Xn ) π = (ĥ (π)-h(π))g(π) donde g(π) representa una función que no puede depender de las X i pero sí de π. El importante teorema anterior debe entenderse y usarse correctamente, y no emplearlo para obtener conclusiones falsas. En primer lugar, antes de aplicarlo, deberá comprobarse la veracidad de sus condiciones de aplicación. Caso de no darse esas condiciones, debe tenerse presente que la cotafcr no es relevante, y que el hecho de que un estimador la alcance ya no nos asegura nada. Una vez comprobado que las condiciones de aplicación son ciertas, deberá calcularse la cotafcr, que sería ya una cota inferior de la varianza de todos los estimadores insesgados de h(π). En este punto, sabríamos que la primera condición de existencia del e.i.m.v.u. la de la existencia de cota se da. La pregunta a contestar a continuación es si algún estimador insesgado es tal que su varianza iguale a la cota hallada segunda condición para que exista el e.i.m.v.u.. Para ello nos podemos ayudar de las descomposición indicada en el enunciado del teorema. Una respuesta afirmativa a esta nueva cuestión, daría lugar a la finalización con éxito de nuestra búsqueda. Sin embargo, una respuesta negativa a esta segunda cuestión no debe llevar a la negación de la existencia del e.i.m.v.u. Realmente, quedarían abiertas dos posibilidades y no podríamos decidir cuál es la cierta, al menos empleando únicamente el teorema FCR para hacerlo. La primera posibilidad es que el e.i.m.v.u. exista pero su varianza sea superior a la cotafcr, por lo que no la habríamos detectado nosotros. La segunda posibilidad es que realmente no exista e.i.m.v.u. Prof. D. Juan José Pérez Castejón 15

16 Como se ve, hay dos características que no son siempre equivalentes: ser e.i.m.v.u y que la varianza alcance la cota. Añadamos por ello una definición adicional: un cierto estimador ĥ (π) se dice eficiente si var π (ĥ(π))=cotafcr(π) π. Merece la pena incluir ahora dos notas de tipo técnico, que ayuden a aplicar del teorema enunciado: 1. De entre sus condiciones previas, solo contrastaremos inicialmente y de forma expresa, la que se refiere al dominio donde se anula la función de densidad o probabilidad de la población. La comprobación de las restantes condiciones va implícita en el desarrollo de los pasos posteriores. 2. El denominador de la cota FCR, siempre de difícil cálculo, tiene una expresión alternativa. Se cumple que: 2 2 E( ln Lπ(X1,..., Xn ) π)=e( lnlπ (X1,..., Xn ) π) 2 Si además estamos trabajando con una m.a.s, existen otras dos expresiones alternativas para él: 2 2 ne( ln Lπ(X) π) y ne( ln Lπ (X) π ) 2 En cada problema puede emplearse aquella que resulte más fácil de aplicar. Para terminar esta sección, vamos a eliminar las restricciones sobre π y h(π) que ambas sean unidimensionales con las que al principio encorsetábamos todo lo explicado. Lo haremos minimamente, pero asegurándonos, al menos, de no dejar fuera por completo un caso importante, el caso normal en el que π=(µ,σ). Para ello permitiremos que π tenga la dimensión que sea aunque mantendremos el hecho de que h(π) sea unidimensional añadiendo la restricción de que sea función solo de una determinada componente de π: h(π)=h(π i ). En este caso, lo que ocurre es que todo lo comentado sigue siendo totalmente válido y solo hay que saber que en la expresiones anteriores en las que aparecen derivadas parciales respecto de π, deben estas sustituirse por derivadas parciales respecto de la componente π i que interviene en h(π i ). Prof. D. Juan José Pérez Castejón 16

17 PROPIEDAD DE SUFICIENCIA. La propiedad de suficiencia no es tanto una propiedad de los estimadores, sino que se plantea para los estadísticos en general. Y tampoco está directa y únicamente dirigida a la estimación de una función de h(π), sino que está relacionada con el problema de la inferencia sobre π en general, independientemente del tipo de proceso inductivo que se emplee para llevarla a cabo. De todas maneras, la incluimos aquí de forma que esta sección se convierta en una pequeña revisión de algunas de las propiedades más relevantes relacionadas con la cuestión de la inducción estadística. Podemos cifrar el origen de la necesidad de disponer de estadísticos suficientes, en lo siguiente. Manejar una muestra completa puede convertirse en algo pesado por la gran cantidad de datos que puede incluir. Cabe preguntarse hasta qué punto es posible encontrar un estadístico con las componentes necesarias de forma que sus valores muestrales aporten la misma información sobre el parámetro π que la que aporta la propia muestra. Si se pudiera hallar, tendríamos que el conjunto de toda la muestra se puede resumir y sustituir por los valores del estadístico, sin perder la información relevante que aquella incluía sobre el parámetro. Con ello conseguiríamos seguramente un notable ahorro de medios: tiempo, dinero,... De nuevo encontramos aquí una idea muy sugerente pero cuya formalización resulta complicada. Son varios los elementos que tenemos que expresar en términos estadísticos. Primero está la idea de información sobre π suministrada por la muestra. Notemos que en el hecho de que la densidad o probabilidad conjunta de la muestra dependa de π, es aquel en el que hasta ahora nos hemos basado y así seguiremos haciendo para obtener conclusiones sobre ese parámetro. Piénsese en los métodos de estimación ya explicados. La información a resumir aportada por la muestra se concentra pues en la dependencia respecto de π de f π (x 1,...,x n ) o de p π (x 1,...,x n ) en el caso discreto. Por otro lado, una vez conocido el valor muestral t que presente determinado estadístico T, la información sobre π que queda en la muestra una vez eliminada la que va asociada al propio t, la aportaría la función de densidad probabilidad condicionada f X1,...,X n /T=t,π(x 1,...,x n ) p X1,...,X n /T=t,π(x 1,...,x n ). Prof. D. Juan José Pérez Castejón 17

18 Esta última función condicionada, en principio, podría depender del parámetro desconocido ya que las distribuciones originales así lo hacen. De hecho, si esa dependencia se da de forma efectiva, encontraríamos que incluso extrayendo la información aportada por T, en la muestra aún queda información relevante para π. Podemos ya definir el concepto de estadístico suficiente. Dada una muestra X 1,...,X n de cierta población X que se distribuye según f π (x) ó p π (x), el estadístico muestral T se dice que es un estadístico suficiente para π si f X1,...,X n /T=t,π(x 1,...,x n ) ó p X1,...,X n /T=t,π(x 1,...,x n ) es, de hecho, una función realmente independiente del parámetro desconocido π. Tres puntos adicionales deben de precisarse aún en esa definición: 1. Para que realmente el valor muestral de T sea un valor conocido y pueda ser empleado en la práctica, en sustitución de la realización completa de la muestra disponible, x 1,...,x n, T debe ser un estadístico cuya fórmula también esté libre de parámetros desconocidos, como ya dijimos que debe ocurrir, por ejemplo, con un estadístico que se piense usar como estimador. 2.- La independencia respecto de π de la función de densidad o de probabilidad condicionada, debe comprobarse para todo valor posible, lo que implica que debe ser cierta (x 1,...,x n ), incluso, por ejemplo, para aquellos en los que se anula, y t al que sea posible condicionar. 3. T es un estadístico con la dimensión necesaria, dimensión que no tiene por qué ser ni 1 ni igual a la de π. Por otro lado, si T resultara ser de la misma dimensión que π, tampoco debe entenderse que entonces cada componente T i pueda ser suficiente para cada π i ni nada similar. La única definición que se ha hecho es la que determina si un cierto T es suficiente de manera conjunta para el parámetro π, tenga este la dimensión que sea. En la práctica, hallar candidatos a estadístico suficientes y comprobar si lo son, empleando la definición de suficiencia, es una tarea complicada incluso en el caso de las distribuciones mas Prof. D. Juan José Pérez Castejón 18

19 sencillas. El siguiente resultado propone otro método mas simple de encontrar estadísticos suficientes : Teorema (criterio de factorizacion): En las condiciones que se vienen planteando, el estadístico T(X 1,...,X n ) definido a partir de la función determinista T(x 1,...,x n ), es suficiente para π si y solo si es cierta una descomposición como la que sigue: f π (x 1,...,x n ) ó p π (x 1,...,x n ) = h(x 1,...,x n )g π (T(x 1,...,x n )) La descomposición anterior debe ser cierta en todo vector (x 1,...,x n ). En ella, h representa una función que no puede depender de π. Por su lado, g sí depende de π pero en cambio, no depende directamente de las (x 1,...,x n ), sino que lo hace a través de una función de ellas, en concreto de la misma función con la que se define T. Intuitivamente, lo que exige la descomposición anterior es que la dependencia respecto de las (x 1,...,x n ) que f presente de manera conjunta e inseparable de π, se pueda expresar realmente en términos de T, mientras que el resto de dependencia de las (x 1,...,x n ), está libre de π. Una última propiedad de los estadísticos suficientes afirma lo siguiente: Teorema: Si T es un estadístico suficiente y g es una aplicación inyectiva de la dimensión adecuada, entonces g(t) también es suficiente. PROPIEDAD DE FAMILIA EXPONENCIAL. Tal y como se hizo en el apartado anterior, en este de ahora se comenta una propiedad, que más que estar específicamente relacionada con la estimación puntual, lo está con todo el conjunto de técnicas de la inferencia estadística. Examinaremos una propiedad de ciertas familias de distribuciones, la propiedad de familia exponencial. En lo que sigue, llamaremos familia de distribuciones a un conjunto de distribuciones estadísticas que tienen una función de densidad o de probabilidad que puede ser expresada según una formula general común. Todos los elementos que intervienen en esa fórmula están perfectamente identificados, a excepción de un cierto conjunto de parámetros, conjunto que representaremos por π. Prof. D. Juan José Pérez Castejón 19

20 Precisamente es π quien al ir tomando sus diferentes valores posibles, va generando las diferentes funciones de probabilidad o de densidad de las distribuciones que componen la familia. f π (x) ó p π (x) designará a la fórmula general a la que se ajusta la función de densidad o de probabilidad de las distribuciones pertenecientes a la familia que se analice. Aunque nos limitaremos a trabajar con distribuciones unidimensionales, π=(π 1,...,π k ) podrá tener la dimensión necesaria. El concepto que se acaba de definir, no es realmente nada nuevo y desconocido. Todas las distribuciones en su momento estudiadas, tales como las diferentes distribuciones de Bernouilli que dependían de la probabilidad p de éxito, o las distribuciones normales que dependían de µ y σ, y así cualquier otra, son casos concretos de familias de distribuciones. Por otro lado, la hipótesis paramétrica sobre la que estamos desarrollando todo el análisis inductivo, lo que en el fondo hace es suponer que la distribución poblacional pertenece a una determinada familia de distribuciones. Una familia de distribuciones se dirá que es una familia k c i ( π)di (x) i= 1 exponencial si f π (x) ó p π (x) cumple: f π(x) = a( π)b(x)e. Esa descomposición debe ser cierta x y π. Nótese que a(π) representa una función que depende de π pero no de x, mientras que con b(x) ocurre lo contrario. A su vez, en el exponente de la potencia aparecen, como máximo, tantos sumandos como componentes tiene π. Aunque el hecho de ser familia exponencial dota al correspondiente conjunto de distribuciones estadísticas de muy buenas propiedades, no emplearemos por ahora más este concepto. Solo pondremos un ejemplo que ilustre la relación entre las familias exponenciales y algunas de las restantes propiedades ya comentadas. Se trata de una propiedad de fácil demostración, que razona cómo obtener un estadístico suficiente si se dispone de una familia exponencial: Teorema: Dada una familia exponencial que cumpla una descomposición como la señalada, entonces el siguiente estadístico k dimensional es suficiente para π: T=( d n i= 1 1 (Xi) n,..., d (X ). i= 1 k i) Prof. D. Juan José Pérez Castejón 20

21 Propiedades de algunos de los estimadores obtenidos. Es conveniente cerrar el tema comprobando si los estimadores obtenidos mediante los métodos de estimación que se comentaron inicialmente, cumplen algunas de las propiedades que se han expuesto. Lo haremos solamente para el e.m.v. ya que es el estimador de uso más común, a la vez que el que mejor propiedades posee. Las propiedades del e.m.v. se derivan del resultado que se va a comentar a continuación. Podemos considerar que sus condiciones de aplicación son, básicamente, las de aplicación del teorema FCR. Haremos un enunciado parcial del resultado, recogiendo únicamente aquellos aspectos que precisemos para derivar las propiedades del e.m.v. que después se expongan. Teorema: El e.m.v. cumple que: Prof. D. Juan José Pérez Castejón 21 (ĥ (π) h(π))/(cotafcr(π)) ½ L N(0,1) Las implicaciones de este resultado suponen muy buenas propiedades para el e.m.v. Para empezar, la convergencia en ley indicada provoca que ĥ (π) (cotafcr(π)) ½ N(0,1)+h(π), siendo la aproximación entre el comportamiento probabilístico de los dos términos de esa expresión, más exacta cuanto mayor sea el tamaño muestral. Equivalentemente podemos expresar esa aproximación como ĥ (π) N(h(π),cotaFCR(π)). De tales aproximaciones, se deduce primero que lim n E(ĥ (π))=h(π), o lo que es lo mismo, que el e.m.v es asintóticamente insesgado. También podemos deducir que var(ĥ (π)) cotafcr(π) y que ambas series tendrán el mismo límite. Si se revisa la expresión de la cota, esta es una serie que converge a cero (véase, por ejemplo su fórmula cuando se maneja una m.a.s., aunque también es cierta la convergencia a cero para otro tipo de muestras). Así, se podrá decir que lo mismo ocurre con var(ĥ (π)) y que, por ello, el e.m.v. también es consistente. La propiedad de ser e.i.m.v.u. no tiene sentido plantearla en general para todo e.m.v. puesto que no hemos podido demostrar que sea insesgado. La propiedad de eficiencia tampoco será cierta

22 pues solo es var(ĥ (π)) cotafcr(π). Lo que sí que queda demostrado con esa proximación es que el e.m.v. es asintóticamente eficiente en el sentido de que su varianza y la cotafcr se aproximan entre sí todo lo que queramos conforme aumenta el tamaño muestral. Muy útil es otro implicación derivada del resultado anterior. Nos referimos al comportamiento probabilístico normal al menos asintóticamente del e.m.v. En más de una ocasión en la que la distribución exacta en muestra finita de ese estimador no se conozca, saber al menos que si el tamaño muestral es grande esa distribución se puede aproximar bastante bien por la distribución normal, facilitará la realización de más de un procedimiento inductivo, aunque estaremos limitados a considerar que sus conclusiones son válidas solo como aproximación. Debe hacerse hincapié en que las propiedades comentadas son asintóticas no son propiedades exactas en muestra finita y basadas en aproximaciones. No es descartable que en situaciones particulares se demuestren propiedades más fuertes para el e.m.v., por ejemplo, insesgadez en vez de solo insegadez asintótica, etc. Al mismo tiempo, si se dispone de la versión exacta y no aproximada de una de estas propiedades por ejemplo, la distribución exacta frente a la asintótica siempre sería preferible usarla para realizar inferencia si ello es factible. Prof. D. Juan José Pérez Castejón 22

T.3 ESTIMACIÓN PUNTUAL

T.3 ESTIMACIÓN PUNTUAL T.3 ESTIMACIÓN PUNTUAL 1. INTRODUCCIÓN: ESTIMACIÓN Y ESTIMADOR 2. PROPIEDADES DE LOS ESTIMADORES 3. MÉTODOS DE ESTIMACIÓN. EJEMPLO 1, EJEMPLO 2 1. Introducción: Estimación y Estimador En este tema se analizan

Más detalles

8. Estimación puntual

8. Estimación puntual 8. Estimación puntual Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 1 / 30 Contenidos 1 Introducción 2 Construcción de estimadores

Más detalles

Apuntes sobre algunos teoremas fundamentales de análisis complejo, con 20 ejemplos resueltos (2007-08)

Apuntes sobre algunos teoremas fundamentales de análisis complejo, con 20 ejemplos resueltos (2007-08) Variable Compleja I (3 o de Matemáticas) Apuntes sobre algunos teoremas fundamentales de análisis complejo, con ejemplos resueltos (7-8) En estos apuntes, consideraremos las funciones anaĺıticas (holomorfas)

Más detalles

Tema 10. Estimación Puntual.

Tema 10. Estimación Puntual. Tema 10. Estimación Puntual. Presentación y Objetivos. 1. Comprender el concepto de estimador y su distribución. 2. Conocer y saber aplicar el método de los momentos y el de máxima verosimilitud para obtener

Más detalles

ESTIMACIÓN. puntual y por intervalo

ESTIMACIÓN. puntual y por intervalo ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio

Más detalles

Capítulo 4 MEDIDA DE MAGNITUDES. Autor: Santiago Ramírez de la Piscina Millán

Capítulo 4 MEDIDA DE MAGNITUDES. Autor: Santiago Ramírez de la Piscina Millán Capítulo 4 MEDIDA DE MAGNITUDES Autor: Santiago Ramírez de la Piscina Millán 4 MEDIDA DE MAGNITUDES 4.1 Introducción El hecho de hacer experimentos implica la determinación cuantitativa de las magnitudes

Más detalles

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos

Más detalles

Límites. Definición de derivada.

Límites. Definición de derivada. Capítulo 4 Límites. Definición de derivada. 4.1. Límites e indeterminaciones Hemos visto en el capítulo anterior que para resolver el problema de la recta tangente tenemos que enfrentarnos a expresiones

Más detalles

INFERENCIA ESTADÍSTICA

INFERENCIA ESTADÍSTICA INFERENCIA ESTADÍSTICA Pensemos en los tres siguientes ejemplos: Hacemos una encuesta entre los clientes de una tienda para preguntarles su opinión sobre cambios generales que pretendemos hacer en diversas

Más detalles

Tema 3: El modelo de regresión lineal múltiple

Tema 3: El modelo de regresión lineal múltiple Econometría 1 curso 2009-2010 Tema 3: El modelo de regresión lineal múltiple Genaro Sucarrat (Departamento de Economía, UC3M) http://www.eco.uc3m.es/sucarrat/ Recordamos: El modelo de regresión lineal

Más detalles

Universidad del CEMA Prof. José P Dapena Métodos Cuantitativos V - ESTIMACION PUNTUAL E INTERVALOS DE CONFIANZA. 5.1 Introducción

Universidad del CEMA Prof. José P Dapena Métodos Cuantitativos V - ESTIMACION PUNTUAL E INTERVALOS DE CONFIANZA. 5.1 Introducción V - ESTIMACION PUNTUAL E INTERVALOS DE CONFIANZA 5.1 Introducción En este capítulo nos ocuparemos de la estimación de caracteristicas de la población a partir de datos. Las caracteristicas poblacionales

Más detalles

Espacios Vectoriales

Espacios Vectoriales Espacios Vectoriales Departamento de Matemáticas, CCIR/ITESM 4 de enero de 2 Índice 3.. Objetivos................................................ 3.2. Motivación...............................................

Más detalles

Matemáticas 2º BTO Aplicadas a las Ciencias Sociales

Matemáticas 2º BTO Aplicadas a las Ciencias Sociales Matemáticas 2º BTO Aplicadas a las Ciencias Sociales CONVOCATORIA EXTRAORDINARIA DE JUNIO 2014 MÍNIMOS: No son contenidos mínimos los señalados como de ampliación. I. PROBABILIDAD Y ESTADÍSTICA UNIDAD

Más detalles

Apuntes de Matemática Discreta 9. Funciones

Apuntes de Matemática Discreta 9. Funciones Apuntes de Matemática Discreta 9. Funciones Francisco José González Gutiérrez Cádiz, Octubre de 004 Universidad de Cádiz Departamento de Matemáticas ii Lección 9 Funciones Contenido 9.1 Definiciones y

Más detalles

Grado en Finanzas y Contabilidad

Grado en Finanzas y Contabilidad Econometría Grado en Finanzas y Contabilidad Apuntes basados en el libro Introduction to Econometrics: A modern Approach de Wooldridge 5.2 Estimadores de Variables Instrumentales La endogeneidad aparece

Más detalles

"CONTRASTES DE HIPÓTESIS" 4.4 Parte básica

CONTRASTES DE HIPÓTESIS 4.4 Parte básica 76 "CONTRASTES DE HIPÓTESIS" 4.4 Parte básica 77 4.4.1 Introducción a los contrastes de hipótesis La Inferencia Estadística consta de dos partes: Estimación y Contrastes de Hipótesis. La primera se ha

Más detalles

Subconjuntos destacados en la

Subconjuntos destacados en la 2 Subconjuntos destacados en la topología métrica En este capítulo, introducimos una serie de conceptos ligados a los puntos y a conjuntos que por el importante papel que juegan en la topología métrica,

Más detalles

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases.

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases. Tema III Capítulo 2 Sistemas generadores Sistemas libres Bases Álgebra Lineal I Departamento de Métodos Matemáticos y de Representación UDC 2 Sistemas generadores Sistemas libres Bases 1 Combinación lineal

Más detalles

Curso de Estadística no-paramétrica

Curso de Estadística no-paramétrica Curso de Estadística no-paramétrica Sesión 1: Introducción Inferencia no Paramétrica David Conesa Grup d Estadística espacial i Temporal Departament d Estadística en Epidemiologia i Medi Ambient i Investigació

Más detalles

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

T.1 CONVERGENCIA Y TEOREMAS LÍMITE T.1 CONVERGENCIA Y TEOREMAS LÍMITE 1. CONVERGENCIA DE SUCESIONES DE VARIABLES ALEATORIA CONVERGENCIA CASI-SEGURA CONVERGENCIA EN PROBABILIDAD CONVERGENCIA EN MEDIA CUADRÁTICA CONVERGENCIA EN LEY ( O DISTRIBUCIÓN)

Más detalles

Aproximación local. Plano tangente. Derivadas parciales.

Aproximación local. Plano tangente. Derivadas parciales. Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación

Más detalles

Tipo A Tipo B Min. y Máx. Gambas 2 1 50 Langostinos 3 5 180 Contenedores 1 1 50 Coste 350 550 350x + 550y

Tipo A Tipo B Min. y Máx. Gambas 2 1 50 Langostinos 3 5 180 Contenedores 1 1 50 Coste 350 550 350x + 550y IES Fco Ayala de Granada Sobrantes 010 (Modelo 6) Soluciones Germán-Jesús Rubio Luna MATEMÁTICAS CCSS II Sobrantes 010 (Modelo 6) SELECTIVIDAD ANDALUCÍA OPCIÓN A EJERCICIO 1 (.5 puntos) Un supermercado

Más detalles

Problemas de Probabilidad resueltos.

Problemas de Probabilidad resueltos. Problemas de Probabilidad resueltos. Problema 1 El profesor Pérez olvida poner su despertador 3 de cada 10 dias. Además, ha comprobado que uno de cada 10 dias en los que pone el despertador acaba no levandandose

Más detalles

Tema 2: Estimación puntual

Tema 2: Estimación puntual Tema 2: Estimación puntual 1 (basado en el material de A. Jach (http://www.est.uc3m.es/ajach/) y A. Alonso (http://www.est.uc3m.es/amalonso/)) Planteamiento del problema: estimador y estimación Insesgadez

Más detalles

Inferencia Estadística

Inferencia Estadística EYP14 Estadística para Construcción Civil 1 Inferencia Estadística El campo de la inferencia estadística está formado por los métodos utilizados para tomar decisiones o para obtener conclusiones sobre

Más detalles

Ejemplos y problemas resueltos de análisis complejo (2014-15)

Ejemplos y problemas resueltos de análisis complejo (2014-15) Variable Compleja I (3 o de Matemáticas y 4 o de Doble Titulación) Ejemplos y problemas resueltos de análisis complejo (04-5) Teoremas de Cauchy En estos apuntes, la palabra dominio significa, como es

Más detalles

Tema 10: Límites y continuidad de funciones de varias variables

Tema 10: Límites y continuidad de funciones de varias variables Tema 10: Límites y continuidad de funciones de varias variables 1 Funciones de varias variables Definición 1.1 Llamaremos función real de varias variables atodafunciónf : R n R. Y llamaremos función vectorial

Más detalles

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

EJERCICIOS DE FUNCIONES REALES

EJERCICIOS DE FUNCIONES REALES EJERCICIOS DE FUNCIONES REALES.- La ley que relaciona el valor del área de un cuadrado con la longitud de su lado es una función. Sabemos que la epresión que nos relacionas ambas variables es. Observa

Más detalles

1. Ecuaciones no lineales

1. Ecuaciones no lineales 1. Ecuaciones no lineales 1.1 Ejercicios resueltos Ejercicio 1.1 Dada la ecuación xe x 1 = 0, se pide: a) Estudiar gráficamente sus raíces reales y acotarlas. b) Aplicar el método de la bisección y acotar

Más detalles

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR}

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR} Subespacios Capítulo 1 Definición 1.1 Subespacio Sea H un subconjunto no vacio de un espacio vectorial V K. Si H es un espacio vectorial sobre K bajo las operaciones de suma y multiplicación por escalar

Más detalles

Problemas Resueltos de Desigualdades y Programación Lineal

Problemas Resueltos de Desigualdades y Programación Lineal Universidad de Sonora División de Ciencias Exactas y Naturales Departamento de Matemáticas. Problemas Resueltos de Desigualdades y Programación Lineal Para el curso de Cálculo Diferencial de Químico Biólogo

Más detalles

Covarianza y coeficiente de correlación

Covarianza y coeficiente de correlación Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también

Más detalles

Aplicaciones lineales continuas

Aplicaciones lineales continuas Lección 13 Aplicaciones lineales continuas Como preparación para el cálculo diferencial, estudiamos la continuidad de las aplicaciones lineales entre espacios normados. En primer lugar probamos que todas

Más detalles

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 Fundamentos de Investigación de Operaciones Investigación de Operaciones de agosto de 200. Estandarización Cuando se plantea un modelo de LP pueden existir igualdades y desigualdades. De la misma forma

Más detalles

Usamos que f( p) = q y que, por tanto, g( q) = g(f( p)) = h( p) para simplificar esta expresión:

Usamos que f( p) = q y que, por tanto, g( q) = g(f( p)) = h( p) para simplificar esta expresión: Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Propiedades de las funciones diferenciables. 1. Regla de la cadena Después de la generalización que hemos

Más detalles

Apuntes de Matemática Discreta 7. Relaciones de Orden

Apuntes de Matemática Discreta 7. Relaciones de Orden Apuntes de Matemática Discreta 7. Relaciones de Orden Francisco José González Gutiérrez Cádiz, Octubre de 2004 Universidad de Cádiz Departamento de Matemáticas ii Lección 7 Relaciones de Orden Contenido

Más detalles

Tema 14: Cálculo diferencial de funciones de varias variables II

Tema 14: Cálculo diferencial de funciones de varias variables II Tema 14: Cálculo diferencial de funciones de varias variables II 1 Desarrollos de Taylor en varias variables Vamos ahora a generalizar los desarrollos de Taylor que vimos para funciones de una variable.

Más detalles

FUNCIONES DE UNA VARIABLE Julián de la Horra Departamento de Matemáticas U.A.M.

FUNCIONES DE UNA VARIABLE Julián de la Horra Departamento de Matemáticas U.A.M. FUNCIONES DE UNA VARIABLE Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción Una de las primeras necesidades que surgen en las Ciencias Experimentales es la de poder expresar los valores

Más detalles

Tema 12: Contrastes Paramétricos

Tema 12: Contrastes Paramétricos Tema 1 Tema 1: Contrastes Paramétricos Presentación y Objetivos. Se comienza este tema introduciendo la terminología y conceptos característicos de los contrastes de hipótesis, típicamente a través de

Más detalles

Introducción al Análisis Complejo

Introducción al Análisis Complejo Introducción al Análisis Complejo Aplicado al cálculo de integrales impropias Complementos de Análisis, I.P.A Prof.: Federico De Olivera Leandro Villar 13 de diciembre de 2010 Introducción Este trabajo

Más detalles

- se puede formular de la siguiente forma:

- se puede formular de la siguiente forma: Multicolinealidad 1 Planteamiento Una de las hipótesis del modelo de regresión lineal múltiple establece que no existe relación lineal exacta entre los regresores, o, en otras palabras, establece que no

Más detalles

Tests de hipótesis estadísticas

Tests de hipótesis estadísticas Tests de hipótesis estadísticas Test de hipótesis sobre la media de una población. Introducción con un ejemplo. Los tests de hipótesis estadísticas se emplean para muchos problemas, en particular para

Más detalles

CÁLCULO PARA LA INGENIERÍA 1

CÁLCULO PARA LA INGENIERÍA 1 CÁLCULO PARA LA INGENIERÍA 1 PROBLEMAS RESUELTOS Tema 3 Derivación de funciones de varias variables 3.1 Derivadas y diferenciales de funciones de varias variables! 1. Derivadas parciales de primer orden.!

Más detalles

TEMA 3: CONTINUIDAD DE FUNCIONES

TEMA 3: CONTINUIDAD DE FUNCIONES TEMA 3: CONTINUIDAD DE FUNCIONES. Valor Absoluto Trabajaremos en el campo de los números reales, R. Para el estudio de las propiedades de las funciones necesitamos el concepto de valor absoluto de un número

Más detalles

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor Tema 5 Aproximación funcional local: Polinomio de Taylor Teoría Los polinomios son las funciones reales más fáciles de evaluar; por esta razón, cuando una función resulta difícil de evaluar con exactitud,

Más detalles

Tema 10: Funciones de varias variables. Funciones vectoriales. Límites y continuidad

Tema 10: Funciones de varias variables. Funciones vectoriales. Límites y continuidad Tema 10: Funciones de varias variables. Funciones vectoriales. Límites y continuidad 1 Funciones de varias variables Observación 1.1 Conviene repasar,enestepunto,lodadoeneltema8paratopología en R n : bolas,

Más detalles

CONTENIDOS MÍNIMOS BACHILLERATO

CONTENIDOS MÍNIMOS BACHILLERATO CONTENIDOS MÍNIMOS BACHILLERATO I.E.S. Vasco de la zarza Dpto. de Matemáticas CURSO 2013-14 ÍNDICE Primero de Bachillerato de Humanidades y CCSS...2 Primero de Bachillerato de Ciencias y Tecnología...5

Más detalles

Tema 3. Problemas de valores iniciales. 3.1. Teoremas de existencia y unicidad

Tema 3. Problemas de valores iniciales. 3.1. Teoremas de existencia y unicidad Tema 3 Problemas de valores iniciales 3.1. Teoremas de existencia y unicidad Estudiaremos las soluciones aproximadas y su error para funciones escalares, sin que ésto no pueda extenderse para funciones

Más detalles

Repaso de matrices, determinantes y sistemas de ecuaciones lineales

Repaso de matrices, determinantes y sistemas de ecuaciones lineales Tema 1 Repaso de matrices, determinantes y sistemas de ecuaciones lineales Comenzamos este primer tema con un problema de motivación. Problema: El aire puro está compuesto esencialmente por un 78 por ciento

Más detalles

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada FUNCIONES CONTINUAS. La mayor parte de las funciones que manejamos, a nivel elemental, presentan en sus gráficas una propiedad característica que es la continuidad. La continuidad de una función definida

Más detalles

MATEMÁTICAS EMPRESARIALES II:

MATEMÁTICAS EMPRESARIALES II: MATEMÁTICAS EMPRESARIALES II: FUNCIÓN REAL DE VARIAS VARIABLES ÓPTIMOS DE UNA FUNCIÓN ESCALAR MATERIAL DIDÁCTICO DE SOPORTE González-Vila Puchades, Laura Ortí Celma, Francesc J. Sáez Madrid, José B. Departament

Más detalles

Ecuaciones de primer grado con dos incógnitas

Ecuaciones de primer grado con dos incógnitas Ecuaciones de primer grado con dos incógnitas Si decimos: "las edades de mis padres suman 120 años", podemos expresar esta frase algebraicamente de la siguiente forma: Entonces, Denominamos x a la edad

Más detalles

Análisis de una variable real I. Tijani Pakhrou

Análisis de una variable real I. Tijani Pakhrou Análisis de una variable real I Tijani Pakhrou Índice general 1. Introducción axiomática de los números 1 1.1. Números naturales............................ 1 1.1.1. Axiomas de Peano........................

Más detalles

Estimación puntual. Estadística II. Curso 2011/2012. Universidad de Salamanca

Estimación puntual. Estadística II. Curso 2011/2012. Universidad de Salamanca Estadística II Universidad de Salamanca Curso 2011/2012 Outline 1 Introducción 2 3 4 Introducción Una estimación puntual de algún parámetro poblacional θ es un valor único del estadístico θ. Por ejemplo,

Más detalles

CAPÍTULO III. FUNCIONES

CAPÍTULO III. FUNCIONES CAPÍTULO III LÍMITES DE FUNCIONES SECCIONES A Definición de límite y propiedades básicas B Infinitésimos Infinitésimos equivalentes C Límites infinitos Asíntotas D Ejercicios propuestos 85 A DEFINICIÓN

Más detalles

Clase 8: Distribuciones Muestrales

Clase 8: Distribuciones Muestrales Clase 8: Distribuciones Muestrales Distribución Muestral La inferencia estadística trata básicamente con generalizaciones y predicciones. Por ejemplo, podemos afirmar, con base a opiniones de varias personas

Más detalles

Tema 7. Límites y continuidad de funciones

Tema 7. Límites y continuidad de funciones Matemáticas II (Bachillerato de Ciencias) Análisis: Límites y continuidad de funciones 55 Límite de una función en un punto Tema 7 Límites y continuidad de funciones Idea inicial Si una función f está

Más detalles

Límites y Continuidad de funciones

Límites y Continuidad de funciones CAPITULO Límites y Continuidad de funciones Licda. Elsie Hernández Saborío Instituto Tecnológico de Costa Rica Escuela de Matemática Revista digital Matemática, educación e internet (www.cidse.itcr.ac.cr)

Más detalles

Espacios vectoriales y aplicaciones lineales

Espacios vectoriales y aplicaciones lineales Capítulo 3 Espacios vectoriales y aplicaciones lineales 3.1 Espacios vectoriales. Aplicaciones lineales Definición 3.1 Sea V un conjunto dotado de una operación interna + que llamaremos suma, y sea K un

Más detalles

UNIDAD 1: LÍMITES DE FUNCIONES. CONTINUIDAD

UNIDAD 1: LÍMITES DE FUNCIONES. CONTINUIDAD UNIDAD : LÍMITES Y CONTINUIDAD UNIDAD : LÍMITES DE FUNCIONES CONTINUIDAD ÍNDICE DE LA UNIDAD - INTRODUCCIÓN - LÍMITE DE UNA FUNCIÓN EN UN PUNTO LÍMITES LATERALES - LÍMITES EN EL INFINITO 5 4- ÁLGEBRA DE

Más detalles

TABLAS DE CONTINGENCIA (CROSS-TAB): BUSCANDO RELACIONES DE DEPENDENCIA ENTRE VARIABLES CATEGÓRICAS 1

TABLAS DE CONTINGENCIA (CROSS-TAB): BUSCANDO RELACIONES DE DEPENDENCIA ENTRE VARIABLES CATEGÓRICAS 1 TABLAS DE CONTINGENCIA (CROSS-TAB): BUSCANDO RELACIONES DE DEPENDENCIA ENTRE VARIABLES CATEGÓRICAS 1 rafael.dearce@uam.es El objeto de las tablas de contingencia es extraer información de cruce entre dos

Más detalles

ANÁLISIS DE DATOS NO NUMERICOS

ANÁLISIS DE DATOS NO NUMERICOS ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas

Más detalles

). (Nota: también lo es en cada uno de los demás intervalos de definición de la función tangente, pero no de manera global en toda la recta real).

). (Nota: también lo es en cada uno de los demás intervalos de definición de la función tangente, pero no de manera global en toda la recta real). Tema 5 Integral Indefinida 5.1 Introducción Dedicaremos este tema a estudiar el concepto de Integral Indefinida y los métodos más habituales para calcular las integrales indefinidas. De una manera intuitiva

Más detalles

Inferencia Estadística

Inferencia Estadística MaMaEuSch Management Mathematics for European Schools http://www.mathematik.unikl.de/ mamaeusch Inferencia Estadística Paula Lagares Barreiro * Justo Puerto Albandoz * MaMaEuSch ** Management Mathematics

Más detalles

Definición 1.1.1. Sea K un cuerpo. Un polinomio en x, con coeficientes en K es toda expresión del tipo

Definición 1.1.1. Sea K un cuerpo. Un polinomio en x, con coeficientes en K es toda expresión del tipo POLINOMIOS 1.1. DEFINICIONES Definición 1.1.1. Sea K un cuerpo. Un polinomio en x, con coeficientes en K es toda expresión del tipo p(x) = a i x i = a 0 + a 1 x + a 2 x 2 + + a n x n + ; a i, x K; n N

Más detalles

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES Tema 07 LÍMITES Y CONTINUIDAD DE FUNCIONES Límite de una función en un punto Vamos a estudiar el comportamiento de las funciones f ( ) g ( ) ENT[ ] h ( ) i ( ) en el punto Para ello, damos a valores próimos

Más detalles

6 M. C. J. A G U S T I N F L O R E S A V I L A

6 M. C. J. A G U S T I N F L O R E S A V I L A 2..- DEFINICION DE LIMITES. OBJETIVO.- Que el alumno conozca el concepto de Límite, comprenda la importancia que tiene este concepto en el Cálculo y adquiera habilidad en el cálculo de los Límites más

Más detalles

Análisis III. Joaquín M. Ortega Aramburu

Análisis III. Joaquín M. Ortega Aramburu Análisis III Joaquín M. Ortega Aramburu Septiembre de 1999 Actualizado en julio de 2001 2 Índice General 1 Continuidad en el espacio euclídeo 5 1.1 El espacio euclídeo R n...............................

Más detalles

1. Números Reales 1.1 Clasificación y propiedades

1. Números Reales 1.1 Clasificación y propiedades 1. Números Reales 1.1 Clasificación y propiedades 1.1.1 Definición Número real, cualquier número racional o irracional. Los números reales pueden expresarse en forma decimal mediante un número entero,

Más detalles

Programación Lineal Entera

Programación Lineal Entera Programación Lineal Entera P.M. Mateo y David Lahoz 2 de julio de 2009 En este tema se presenta un tipo de problemas formalmente similares a los problemas de programación lineal, ya que en su descripción

Más detalles

Curso Completo de Electrónica Digital

Curso Completo de Electrónica Digital CURSO Curso Completo de Electrónica Digital Departamento de Electronica y Comunicaciones Universidad Pontifica de Salamanca en Madrid Prof. Juan González Gómez Capítulo 3 ALGEBRA DE BOOLE 3.1. Introducción

Más detalles

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1 1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1.1. ESPACIOS VECTORIALES 1. Analizar cuáles de los siguientes subconjuntos de R 3 son subespacios vectoriales. a) A = {(2x, x, 7x)/x R} El conjunto A es una

Más detalles

Curso: Métodos de Monte Carlo. Unidad 1, Sesión 2: Conceptos básicos

Curso: Métodos de Monte Carlo. Unidad 1, Sesión 2: Conceptos básicos Curso: Métodos de Monte Carlo. Unidad 1, Sesión 2: Conceptos básicos Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay

Más detalles

martilloatomico@gmail.com

martilloatomico@gmail.com Titulo: REGLA DE TRES CON BASE UNITARIA Año escolar: MATEMATICA 1 Autor: José Luis Albornoz Salazar Ocupación: Ing Civil. Docente Universitario País de residencia: Venezuela Correo electrónico: martilloatomico@gmail.com

Más detalles

Capítulo 7: Distribuciones muestrales

Capítulo 7: Distribuciones muestrales Capítulo 7: Distribuciones muestrales Recordemos: Parámetro es una medida de resumen numérica que se calcularía usando todas las unidades de la población. Es un número fijo. Generalmente no lo conocemos.

Más detalles

BREVE APUNTE SOBRE EL PROBLEMA DE LA MULTICOLINEALIDAD EN EL MODELO BÁSICO DE REGRESIÓN LINEAL

BREVE APUNTE SOBRE EL PROBLEMA DE LA MULTICOLINEALIDAD EN EL MODELO BÁSICO DE REGRESIÓN LINEAL BREVE APUNTE SOBRE EL PROBLEMA DE LA MULTICOLINEALIDAD EN EL MODELO BÁSICO DE REGRESIÓN LINEAL Ramón Mahía Febrero 013 Prof. Ramón Mahía ramon.mahia@uam.es Qué se entiende por Multicolinealidad en el marco

Más detalles

2. Modelo de colas poissoniano con un servidor M/M/1. 3. Modelo con un servidor y capacidad finita M/M/1/K

2. Modelo de colas poissoniano con un servidor M/M/1. 3. Modelo con un servidor y capacidad finita M/M/1/K CONTENIDOS 1. Introducción a las colas poissonianas. 2. Modelo de colas poissoniano con un servidor M/M/1 3. Modelo con un servidor y capacidad finita M/M/1/K 4. Modelo con varios servidores M/M/c. Fórmula

Más detalles

INFERENCIA ESTADÍSTICA

INFERENCIA ESTADÍSTICA Capítulo 4 INFERENCIA ESTADÍSTICA 4.1. Introducción Inferir: Sacar una consecuencia de una cosa. Sacar consecuencia o deducir una cosa de otra. La estadística, ciencia o rama de las Matemáticas que se

Más detalles

1. Definición 2. Operaciones con funciones

1. Definición 2. Operaciones con funciones 1. Definición 2. Operaciones con funciones 3. Estudio de una función: Suma y diferencia Producto Cociente Composición de funciones Función reciproca (inversa) Dominio Recorrido Puntos de corte Signo de

Más detalles

Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos.

Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos. Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos. Prof. D. Miguel Ángel García Hoyo. Septiembre de 2011 Dependencia lineal

Más detalles

Funciones analíticas CAPÍTULO 2 2.1 INTRODUCCIÓN

Funciones analíticas CAPÍTULO 2 2.1 INTRODUCCIÓN CAPÍTULO 2 Funciones analíticas 2.1 INTRODUCCIÓN Para definir las series de potencias y la noción de analiticidad a que conducen, sólo se necesitan las operaciones de suma y multiplicación y el concepto

Más detalles

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO 1º) Considérese un número estrictamente positivo del sistema de números máquina F(s+1, m, M, 10). Supongamos que tal número es: z = 0.d 1 d...d s 10 e Responde

Más detalles

Polinomios de Taylor.

Polinomios de Taylor. Tema 7 Polinomios de Taylor. 7.1 Polinomios de Taylor. Definición 7.1 Recibe el nombre de polinomio de Taylor de grado n para la función f en el punto a, denotado por P n,a, el polinomio: P n,a (x) = f(a)

Más detalles

Matemáticas. 1 o ESO. David J. Tarifa García. info@esobachilleratouniversidad.com.es

Matemáticas. 1 o ESO. David J. Tarifa García. info@esobachilleratouniversidad.com.es Matemáticas 1 o ESO David J. Tarifa García info@esobachilleratouniversidad.com.es 1 Matemáticas - 1 o ESO 2 Índice 1 Tema 1. Los números naturales 6 1.1 Suma de números naturales................................

Más detalles

Aplicaciones Lineales y Multilineales Continuas

Aplicaciones Lineales y Multilineales Continuas Capítulo 4 Aplicaciones Lineales y Multilineales Continuas La conexión entre las estructuras vectorial y topológica de los espacios normados, se pone claramente de manifiesto en el estudio de las aplicaciones

Más detalles

LAS APUESTAS EN EL FRONTÓN

LAS APUESTAS EN EL FRONTÓN Las Apuestas en el Frontón LAS APUESTAS EN EL FRONTÓN Alberto Bagazgoitia (*) En los frontones el juego de la pelota vasca se ha mantenido y se mantiene con fuerza a través de los años. Estos últimos años

Más detalles

Dualidad y Análisis de Sensibilidad

Dualidad y Análisis de Sensibilidad Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Industrial IN34A: Clase Auxiliar Dualidad y Análisis de Sensibilidad Marcel Goic F. 1 1 Esta es una versión bastante

Más detalles

La suma y la resta. Introducción. Capítulo

La suma y la resta. Introducción. Capítulo Capítulo II La suma y la resta Introducción En el capítulo anterior, vimos que los números permiten expresar la cantidad de objetos que tiene una colección. Juntar dos o más colecciones, agregar objetos

Más detalles

Tema 2 Límites de Funciones

Tema 2 Límites de Funciones Tema 2 Límites de Funciones 2.1.- Definición de Límite Idea de límite de una función en un punto: Sea la función. Si x tiende a 2, a qué valor se aproxima? Construyendo - + una tabla de valores próximos

Más detalles

Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA. Funciones

Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA. Funciones Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA Funciones José R. Jiménez F. Temas de pre-cálculo I ciclo 007 Funciones 1 Índice 1. Funciones 3 1.1. Introducción...................................

Más detalles

TEMA 3 ESTIMACIÓN PUNTUAL

TEMA 3 ESTIMACIÓN PUNTUAL ESQUEMA 3.1.- Planteamiento del problema: La Estimación Puntual. 3.2.- Propiedades de los estimadores. 3.2.1.- Insesgadez. 3.2.2.- Eficiencia. La cota de Cramér-Rao. EIMV. 3.2.3.- Consistencia. 3.2.4.-

Más detalles

Pablo Fernández. IESE. Valoración de opciones por simulación 1 VALORACIÓN DE OPCIONES POR SIMULACIÓN Pablo Fernández IESE

Pablo Fernández. IESE. Valoración de opciones por simulación 1 VALORACIÓN DE OPCIONES POR SIMULACIÓN Pablo Fernández IESE Pablo Fernández. IESE. Valoración de opciones por simulación 1 VALORACIÓN DE OPCIONES POR SIMULACIÓN Pablo Fernández IESE 1. Fórmulas utilizadas en la simulación de la evolución del precio de una acción

Más detalles

MATEMÁTICAS II APUNTES DE TEORÍA CURSO ACADÉMICO 2012-13. Carlos Ivorra

MATEMÁTICAS II APUNTES DE TEORÍA CURSO ACADÉMICO 2012-13. Carlos Ivorra MATEMÁTICAS II APUNTES DE TEORÍA CURSO ACADÉMICO 2012-13 Carlos Ivorra Índice 1 Introducción a la optimización 1 2 Programación entera 18 3 Introducción a la programación lineal 24 4 El método símplex

Más detalles

FUNCIONES TRIGONOMÉTRICAS

FUNCIONES TRIGONOMÉTRICAS UNIDAD 3 FUNCIONES TRIGONOMÉTRICAS Concepto clave: 1. Razones trigonométricas Si A es un ángulo interior agudo de un triángulo rectángulo y su medida es, entonces: sen longitud del cateto opuesto al A

Más detalles

MATEMÁTICAS aplicadas a las Ciencias Sociales II

MATEMÁTICAS aplicadas a las Ciencias Sociales II MATEMÁTICAS aplicadas a las Ciencias Sociales II UNIDAD 1: SISTEMAS DE ECUACIONES. MÉODO DE GAUSS Sistemas de ecuaciones lineales Sistemas equivalentes. Transformaciones que mantienen la equivalencia.

Más detalles

Hasta ahora hemos evitado entrar en la cuestión de qué significa el símbolo

Hasta ahora hemos evitado entrar en la cuestión de qué significa el símbolo Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Límites y continuidad 1. Límite de funciones de dos variables Hasta ahora hemos evitado entrar en la

Más detalles

MODULO PRECALCULO TERCERA UNIDAD

MODULO PRECALCULO TERCERA UNIDAD MODULO PRECALCULO TERCERA UNIDAD Función Eponencial y Función Logarítmica 9 Alicia rió. "No sirve de nada intentarlo - dijo -; uno no puede creer cosas imposibles." - "Me atrevería a decir que no tienes

Más detalles

x 10000 y 8000 x + y 15000 a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas.

x 10000 y 8000 x + y 15000 a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas. Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta A 1. Queremos realizar una inversión en dos tipos

Más detalles

Imagen de Rosaura Ochoa con licencia Creative Commons

Imagen de Rosaura Ochoa con licencia Creative Commons Imagen de Rosaura Ochoa con licencia Creative Commons Durante el primer tema hemos aprendido a elaborar una encuesta. Una vez elaborada la encuesta necesitamos escoger a los individuos a los que se la

Más detalles