Estimación puntual. Estadística aplicada a la empresa II Prof. D. Juan José Pérez Castejón

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Estimación puntual. Estadística aplicada a la empresa II Prof. D. Juan José Pérez Castejón"

Transcripción

1 Estimación puntual Estadística aplicada a la empresa II Prof. D. Juan José Pérez Castejón 1

2 ESTIMACIÓN PUNTUAL Tras hacernos a la idea en el tema anterior de lo que la inferencia estadística es y persigue, en este tema y en los que siguen, comenzaremos la revisión detenida de los diferentes métodos de llevarla a cabo. En particular, en el tema que ahora comienza comentaremos todo lo relacionado con la cuestión de la estimación puntual. La primera sección realmente estará dedicada a dar una visión general de los propósitos y forma de proceder de las distintas técnicas inductivas, y de las diferencias existentes entre ellas. Y también servirá para establecer algunas hipótesis generales bajo las que todas se realizarán. Las tres restantes secciones son las que verdaderamente se centran en la estimación puntual. La primera de las tres contiene una exposición de dos métodos de obtención del estimador, la herramienta fundamental para estimar. La segunda, define y comenta las propiedades básicas que los estimadores deben tener. La tercera, y última del tema, expone resultados acerca de cuáles de esas propiedades cumplen los estimadores que se ha aprendido a calcular. Las diferentes técnicas de inferencia estadística. La inferencia inductiva estadística, cuyos fines se expusieron en el tema anterior, se puede llevar a efecto a través de tres procedimientos diferentes, escogiéndose uno u otro según el tipo de resultado inductivo al que se quiera llegar. Son estos tres procedimientos los siguientes: estimación puntual; estimación por intervalos y regiones de confianza; y contraste de hipótesis. Realmente, procesos de carácter puramente inductivo son solamente los dos últimos, mientras que el primero sufre de algunas carencias que obligan a no considerarlo como tal. A pesar de ello, estudiaremos en este tema y en los siguientes, los tres, incluso el no estrictamente inductivo, ya que algunos de los resultados asociados a este último, son fundamentales para los otros dos. El proceso de estimación puntual consiste en lo siguiente. Sea c una cantidad unidimensional poblacional desconocida derivada de la distribución de la v.a. X que afecta a todos los individuos de la población. Supongamos que se precisa estimar c, esto es, obtener Prof. D. Juan José Pérez Castejón 2

3 una cantidad que aproxime lo mejor posible su verdadero valor. La forma habitual de conseguir esa estimación puntual pasa por seleccionar un estadístico muestral unidimensional T y tomar, como valor estimado de c, la realización muestral de T, t. Se dice entonces que ese estadístico T es el estimador puntual de c, ĉ = T. Si c no es unidimensional, sino que está compuesta de r componentes, c=(c 1,...,c r ), precisándose en ese caso una estimación de cada una de ellas, T entonces tendrá que tener el mismo número de componentes, T=(T 1,...,T r ), empleándose T i en la estimación de la correspondiente c i, ĉ = T. Sea c de nuevo la cantidad unidimensional citada antes. Supongamos que mejor que una estimación puntual de c, lo que se requiere es determinar un intervalo de la recta real del que podamos tener un cierto grado de confianza de que contenga a c. En tal caso se dirá que lo que se busca es una estimación por intervalo de confianza de c. Para hacerla es preciso determinar dos estadísticos muestrales T 1 y T 2 adecuados, cuyas realizaciones muestrales sirvan para establecer los extremos inferior y superior del intervalo. La estimación por confianza también cubre el caso general en el que c=(c 1,...,c r ), precisándose entonces una región de R r que contenga a c con un determinado nivel de confianza. El estadístico muestral que se escoja debe ser tal que su realización sirva para establecer los límites de esa región. No es necesario ser más preciso en la especificación del procedimiento para cantidades poblaciones de dimensión superior a 1 pues sólo se tratará ese caso, durante este curso, de manera marginal. El último de los tres procedimientos inductivos citados anteriormente, surge cuando lo que se plantea es cierta hipótesis acerca de c y existe la necesidad de desarrollar un criterio a partir del cual aceptar la validez o no de tal hipótesis. Se denomina contraste de hipótesis a una regla o criterio de decisión como el señalado. Los contrastes se construyen a partir de un estadístico muestral T, produciéndose la aceptación o rechazo de la hipótesis planteada según cuál sea el valor muestral de ese estadístico. El objetivo principal del presente tema es el de la introducción al primero de los tres procedimientos inductivos, el de la estimación puntual. A temas posteriores se retrasan introducciones análogas de los procedimientos de estimación por confianza y de contraste de hipótesis. i i Prof. D. Juan José Pérez Castejón 3

4 La mayor parte de la inferencia que se estudia en este tema y en los siguientes, es de tipo paramétrico. Se califica de esa manera a todo proceso inductivo que se lleva a cabo suponiendo de antemano que la variable poblacional X sigue cierta distribución poblacional continua o discreta, X~f π (x) ó p π (x), que ha sido especificada completamente excepto en lo que se refiere al valor de una cierta cantidad π, valor que es desconocido. π puede ser cierto número real o, incluso, un vector de k componentes, π=(π 1,...,π k ). Lo único que se conoce del valor de π es que cae dentro de cierto subconjunto de R k, π Π R k, subconjunto que se conoce con el nombre de espacio paramétrico. El fin general de la inducción paramétrica es aumentar la nuestro conocimientos sobre π mediante el análisis de la muestra de X disponible. La ventaja de la inferencia paramétrica radica en que los problemas que aborda pueden ser expresados siempre en términos del único elemento de la distribución poblacional desconocido, π, hecho que simplifica bastante todas las tareas a realizar. Como ya se ha dicho, de las técnicas que analicemos a continuación, solo una pequeña parte de ellas serán no parámetricas. Para concretar más este punto señalaremos que solo se revisarán algunas estimaciones de confianza de ese tipo, mientras que en lo que se refiere a los tests de hipótesis, uno de los dos temas dedicados a su presentación estará completamente inmerso en el ámbito no paramétrico. Hay que señalar también en este instante que los métodos que aquí revisaremos están situados dentro de la Inferencia Estadística Clásica, existiendo otra área de la Estadística Inductiva, la Estadística Inductiva Bayesiana, en la que no nos adentraremos. Como resultado de combinar el tipo de procedimiento inductivo que se estudia en este tema, la estimación puntual, con las hipótesis de partida de todas las técnicas paramétricas, podremos fijar ya de manera muy precisa el planteamiento y objetivos de las cuestiones y problemas que se tratan en las secciones siguientes. Supondremos que la variable poblacional es X~f π (x) ó p π (x) siendo π una cte. o vector de constantes de valor desconocido. Estaremos interesados en conseguir una estimación puntual de cierta cantidad poblacional de interés, c=h(π), cantidad que puede tener varias componentes h(π)=(h 1 (π),...,h r (π)). Las preguntas que surgen de forma inmediata son, cómo seleccionar el estimador, ĥ( π )?, qué Prof. D. Juan José Pérez Castejón 4

5 propiedades debe tener el estimador seleccionado para asegurarnos de que proporcione una buena estimación?. Las secciones siguientes son las que se dedican a responderlas. Señalemos antes de empezar, dos características que deben cumplir los estimadores, características que no se han podido señalar mientras que no se ha formalizado adecuadamente la hipótesis paramétrica de partida. Por razones obvias, un estimador nunca podrá depender de parámetros desconocidos, y en particular, nunca podrá depender del propio π. Y también resulta obvio que los valores que el estimador de h(π) puede tomar, deben estar incluidos en h(π) por ser este el conjunto donde se sabe que h(π) se encuentra. Métodos de estimación. Existen diferentes procedimientos para obtener estimadores. No siempre son todos aplicables a cualquier situación, dependiendo a veces el que se puedan emplear, de que se cumplan ciertas condiciones adicionales. Revisaremos a continuación dos de los de uso más general: el método de los momentos y el de máxima verosimilitud. Dos puntos importantes a tener en cuenta a la hora de decidir entre aplicar un determinado método de estimación u otro, son las posibilidades reales de poder llevar a efecto cada uno de ellos en la práctica, y las propiedades que tengan los estimadores que produzcan. Una vez que en secciones posteriores se analicen las propiedades deseables en los estimadores, se comentarán las que tienen los generados por los métodos de estimación que ahora se analicen. Por otro lado, si las dificultades técnicas permiten aplicar o no a una situación un método de estimación determinado, es algo que debe decidir el investigador combinando el análisis detenido de esa situación con su experiencia previa. METODO DE ESTIMACIÓN DE LOS MOMENTOS. Para presentar inicialmente este método, supondremos primero que la cantidad a estimar es el propio π, esto es, h(π)=π y k=r. Normalmente, es posible expresar las k componente de π en función de determinados momentos ordinarios de la distribución de Prof. D. Juan José Pérez Castejón 5

6 X. Supongamos por ejemplo, que eso se puede hacer recurriendo únicamente a sus k primeros momentos ordinarios. Si ello es así, tendremos π 1 =g 1 (E(X),E(X 2 ),...,E(X k )),..., π k =g k (E(X),E(X 2 ),...,E(X k )). El estimador de los momentos de cada π i se obtendrá sustituyendo en esas expresiones cada momento ordinario por su estimación natural, esto es, por el momento ordinario muestral O k : ˆπ 1=g 1 (O 1,...,O k ),..., ˆπ k =g k (O 1,...,O k ). Deben tenerse en cuenta dos puntos al aplicar lo señalado. Por un lado, como puede ocurrir que al expresar las π i como funciones de las E(X i ) sean válidas varias posibilidades según que se recurra a momentos de uno u otro orden, siempre se emplearán aquellas expresiones que empleen los momentos de ordenes más bajos posibles. Por otro, si de lo que se dispone son de igualdades que expresan las E(X i ) como función de las π i, al revés de cómo se indicó, las expresiones que se requieren se obtienen despejando los π i en esas igualdades. En general, cuando la cantidad a estimar h(π) es una función cualquiera de π, su estimador de los momentos se obtiene aplicando h a la estimación por los momento de π, ĥ (π)=h( πˆ ). METODO DE ESTIMACIÓN DE MÁXIMA VEROSIMILITUD. Igual que hicimos con el método de los momentos, la exposición de este otro método de estimación, comenzará por el caso en el que h(π)=π y k=r. Una idea intuitiva y bastante sencilla es la que subyace detrás del método de estimación de máxima verosimilitud, el mas popular y empleado de los métodos existentes. Con este método lo que se persigue es estimar como valor de π, aquel que hace mas probable (verosímil) la realización de la muestra que se observe. La mayor dificultad se va a encontrar a la hora de formalizar esa idea. El proceso de formalización se va a llevar a cabo a continuación. Sea una muestra (aleatoria o de cualquier otra clase) extraída de la población en estudio. Sea su función de probabilidad conjunta o su función de densidad, p π (x 1,...,x n ) o f π (x 1,...,x n ). De manera directa (caso discreto ) o proporcionalmente y de forma aproximada (caso continuo) esa función mide la probabilidad (verosimilitud) de que la muestra caiga en el punto (x 1,...,x n ) en el que se valore. Prof. D. Juan José Pérez Castejón 6

7 Como el tratamiento e interpretación que de ella se va a hacer, es el mismo tanto para poblaciones continuas como discretas, en lo que sigue adoptaremos siempre la notación del caso continuo y se escribirá siempre f π (x 1,...,x n ), aunque sin perdida de generalidad pues todo lo que se diga será aplicable también al caso discreto. La anterior función es una función determinista que tiene una particularidad en la que hasta ahora hemos hecho poco hincapié. Además de depender de las n variables (x 1,...,x n ), también es función de π. Esa dependencia lo que indica es que según los diferentes valores que puede tomar el parámetro desconocido, la probabilidad de que la muestra valga (x 1,...,x n ) es diferente, mayor o menor. Como función de él, se comporta como otra función ordinaria cualquiera, por ejemplo, tendrá sus asíntotas, maximos, minimos, opcionalmente será derivable, etc. Si se valora ahora esa función, no en el punto (x 1,...,x n ) que se desee, sino en lo que la muestra valga, (X 1,...,X n ), obtenemos una función que se denota como L π (X 1,...,X n )=f π (X 1,...,X n ). Dos hechos caracterizan a L π. Por una lado, el que sea una variable aleatoria pues el valor que toma dependerá de lo que a su vez valga la muestra, siendo el valor de esta última una cantidad de carácter totalmente aleatorio sin duda. Por otro lado, L π (X 1,...,X n ), por la interpretación de la función de densidad o probabilidad conjunta comentada antes, medirá la probabilidad de que la muestra tome el valor que de ella se observe. L π (X 1,...,X n ) se conoce como la función de verosimilitud de la muestra. Si alguna vez tenemos que manejar al mismo tiempo L π (X 1,...,X n ) y la función L π (x 1,...,x n )=f π (x 1,...,x n ) ó p π (x 1,...,c n ) definida inicialmente, las distinguiremos entre sí denominándolas, respectivamente, la versión aleatoria y determinista de la función de verosimilitud. Una vez definida L π, la estimación de π que se buscaba, se obtendrá sencillamente tomándola igual al valor de esa variable que maximiza L π : π ˆ = arg max L (X,..., X ). El estimador πˆ así obtenido, π Π Prof. D. Juan José Pérez Castejón 7 π 1 se conoce como el estimador máximo verosímil (e.m.v. de π). El problema de maximización planteado en la definición anterior, es el que al ser resuelto, elimina la dependencia de π que L π presenta y permite que el estadístico muestral n

8 arg max L π Π π (X,..., X 1 n ) sea, inicialmente, un estadístico aceptable para ser usado como estimador pues no depende de parámetros desconocidos. Por otro lado, resulta obvio que el mayor problema técnico que presentará la aplicación de la definición anterior, será precisamente la resolución de ese problema. Podríamos encontrarnos con un rango de situaciones que va desde las que no poseen solución, hasta las que poseen más de una. Hagamos a continuación algunos comentarios que pueden ser muy útiles para la tarea que hay que realizar: 1.- Como la función logaritmo es una función creciente y L π (X 1,...,X n )>0 siempre, se dará la igualdad siguiente: arg max logl (X,..., X ) = arg max L (X,..., X ). Por otro lado, la π Π π 1 n π Π experiencia demuestra que resolver la maximización de logl π (X 1,...,X n ) suele ser más sencillo que la de L π (X 1,...,X n ). Como norma, optaremos por resolver siempre la maximización de logl π. 2.- En este problema, se puede emplear las técnicas estándar de optimización. En especial, es aconsejable recurrir a resolver las condiciones de primer orden ( L π πi = 0) contrastando, mediante las de segundo orden, que la solución que se obtenga sea un máximo y no un mínimo. Sin embargo, hay que recordar que el uso de estas condiciones está sujeto a algunas limitaciones y cuidados. Destaquemos, que por un lado, un máximo solo está obligado a cumplirlas si tal máximo es realmente un punto interior del recinto de maximización, en este caso, Π. Mientras que, por otro lado, el cumplir las condiciones de primer y segundo orden no es condición necesaria de ser el máximo absoluto de una función, pudiéndose tratar solamente de un máximo local. Cuando la cantidad a estimar sea una función cualquiera h(π) del parámetro desconocido, el método correcto de estimación pasaría por redenominar a esa cantidad con otro nombre, por ejemplo, λ=h(π) y hacer una reparametrización de L π en términos de λ y de parámetros adicionales si fuera preciso. Una vez conseguido ese objetivo, se debería comenzar el proceso de estimación de λ desde el principio siguiendo todo el procedimiento explicado. π 1 n Prof. D. Juan José Pérez Castejón 8

9 Existe un caso importante en el que el procedimiento de estimación de h(π) explicado puede obviarse. Se trata de aquel en el que h sea una función inyectiva (y por ello, biyectiva sobre el nuevo espacio paramétrico, Λ=h(Π), al que pertenece λ). Si se da esa circunstancia y ya se ha hallado el estimador máximo verosímil de πˆ, es fácil demostrar que entonces el estimador de h(π) cumple que ĥ (π)=h( πˆ ). Propiedades de los estimadores. Como ha quedado establecido desde un principio, la estimación de h(π) no pretende coincidir con exactitud con el valor de esa cantidad, sino solo dar una buena aproximación estimación de ella. El anterior comentario queda reforzado aún más por el siguiente hecho. La estimación se extrae del valor de la realización muestral de un estadístico dado, y por ello lo que vale no será lo mismo según cual sea la realización que se obtenga al extraer la muestra. Si ese valor ni siquiera es siempre el mismo en todas las realizaciones muestrales posibles, no se puede pretender tampoco que sea igual a la cantidad a estimar. Llegados a este punto conviene entonces plantearse la siguiente cuestión. Puesto que la estimación que se obtenga va a depender de la realización muestral de cierto estimador, qué propiedades se le deben exigir a ese estimador para estar seguro de que tales realizaciones al menos un alto porcentaje de ellas sean una buena estimación de h(π)? Resolver una cuestión como esa traerá otros beneficios adicionales. En la sección anterior quedaba abierta la cuestión de qué criterios pueden seguirse a la hora de seleccionar un método de estimación u otro. Claramente, el escoger aquel que genere los estimadores de mejores propiedades debe ser uno de tales criterios, y de hecho debe ser uno de los de mayor importancia. PROPIEDAD DE INSESGADEZ. Como se ha razonado, no tiene sentido exigirle a un estimador que su realización muestral sea igual a h(π). Si no se le puede exigir tal cosa, sí que parece aconsejable que por lo menos se le pida que Prof. D. Juan José Pérez Castejón 9

10 si consideramos la media de todas sus realizaciones a lo largo de todas las muestras posibles esto es, su esperanza con ella obtengamos el valor que se quiera estimar. Esta propiedad es la que se conoce como la de insesgadez: E π (ĥ(π))=h(π). En caso de darse, al estimador se le califica de estimador insesgado. Hay que notar que como la distribución de la muestra depende del parámetro desconocido, ya que así ocurría con la de X, pasa lo mismo con la distribución de cualquier estadístico y con cualquiera de sus características, en particular con su esperanza Esto último, en la igualdad anterior se hace notar mediante el subíndice π. Como el verdadero valor de π es desconocido, la insesgadez de un estimador se dará solo si la igualdad anterior se cumple para π. Es posible incluso relajar aún más lo que exige la propiedad de insesgadez. Aunque la igualdad E π (ĥ(π))=h(π) no se cumpla de manera exacta, puede bastar con que se cumpla de manera aproximada, siendo tal aproximación mayor cuanto mayor sea la información muestral de la que se disponga tamaño muestral. Dicho de otra forma, también es admisible la propiedad de insesgadez asintótica: lim n E π (ĥ (π))=h(π). La insesgadez, al menos asintótica, es una las propiedades mínimas exigibles a un estadístico para que pueda ser considerado estimador de h(π). Conviene hacer en este momento un alto para establecer cierta terminología muy empleada al tratar las propiedades de los estimadores. Propiedades como la insesgadez, que se cumple para todo n independientemente de cómo de grande o pequeña sea esa cantidad, se denominan propiedades de muestra finita. Por su lado, las que son del tipo de la insesgadez asintótica, que lo que suponen es una aproximación más cierta cuanto mayor sea el tamaño muestral, se las conoce como propiedades asintóticas o de muestra grande. PROPIEDAD DE CONSISTENCIA. Aun siendo la insesgadez un requisito mínimo a exigir, no es sin embargo una propiedad que por sí sola garantice un estimador aceptable. Aunque la media del estimador sea igual a h(π), eso no garantiza que sus realizaciones muestrales no se alejen con Prof. D. Juan José Pérez Castejón 10

11 frecuencia de esa media, con lo que se permite la posible existencia de una alta probabilidad de estimaciones inexactas. Lo que se acaba de señalar viene a indicar que también se requiere una propiedad que controle el alejamiento entre los valores de ĥ (π) y h(π). Veamos qué propiedad puede ser esa, centrándonos primero en el caso en el que r=1 con lo que el estimador y la cantidad a estimar son ambos unidimensionales. Mas tarde la extenderemos al caso general. Aunque la distancia citada en los párrafos anteriores parece medida de manera natural por la cantidad ĥ (π) h(π), si en su lugar consideramos esta otra, (ĥ (π) h(π)) 2, obtendremos al final una medida de mejores propiedades algebraicas y estadísticas. Puesto que esa cantidad, que mide la distancia cuadrática entre h(π) y su estimación, es una magnitud que varia de muestra en muestra, y nuestro propósito es hacerla pequeña para el conjunto de todas las muestras, parece bastante evidente que nuestro interés debe dirigirse a hacer pequeña su media, esto es, E(ĥ (π) h(π)) 2. A partir de ahora a tal media la denominaremos error cuadrático medio asociado al estimador ĥ (π), ECM de ĥ (π). Intuitivamente debe entenderse como la distancia o diferencia cuadrática media a lo largo de todas las muestras posibles existente entre la cantidad a estimar y su estimación. Como ya se ha señalado, lo que interesa del ECM de un estimador es hacerlo pequeño. De todas formas, como no podemos hablar de una cantidad lo suficientemente pequeña que en cualquier problema pueda considerarse una cota aceptable del ECM, quizá sea mejor enfocar la propiedad buscada desde otro punto de vista ligeramente diferente. Lo que se puede exigir al estimador es que aumentando lo suficiente la información muestral disponible esto es, aumentando el tamaño muestral, el ECM se haga todo lo pequeño que se precise. Tal cosa implica que lim n ECM=0. Diremos que un estimador es consistente cuando cumpla esa igualdad asintótica. Es muy fácil demostrar la descomposición del ECM de cualquier estimador en la suma de las dos cantidades mayores o iguales que cero siguientes: ECM=var(ĥ (π))+(e π (ĥ(π))-h(π)) 2. Gracias a ella se puede concluir que condición necesaria y suficiente para que un estimador sea consistente, es que sea Prof. D. Juan José Pérez Castejón 11

12 asintóticamente insesgado además de tener una varianza que tienda a cero si n. En el caso de estimadores insesgados, se tendrá que ECM=var(ĥ (π)) y para demostrar su consistencia, bastará con comprobar que su varianza tienda a cero. Otra forma de entender la consistencia se obtiene al apreciar que su definición lo que exige es que la sucesión ĥ (π), que varía con el tamaño muestral, converja en media cuadrática a h(π). Cuando en temas anteriores se definieron los diferentes tipos de convergencia de una sucesión de vv.aa., se razonó que la consecuencia más importante de la convergencia en m.c. a una constante es que la sucesión de variables se concentre cada vez más y con mayor probabilidad alrededor de esa constante, conforme n crece. Existe una definición alternativa de la propiedad de consistencia, que lo único que requiere de ĥ (π) es que converja en probabilidad a h(π). Podemos diferenciar una y otra definición entre sí, llamandolas, respectivamente, consistencia en probabilidad y en m.c. Obviamente, la consistencia en m.c. implica consistencia en probabilidad. El nuevo tipo de consistencia se basa en una definición menos exigente que la expuesta inicialmente, y sin embargo ambas tienen la misma implicación fundamental sobre el comportamiento del estimador. De todas formas, nosotros hemos adoptado, como definición, la más estricta basada en la convergencia en m.c., pues a nuestro nivel, lo estimadores que empleemos serán consistentes en ambos sentidos y siempre es mas sencillo el trabajo con la consistencia en m.c. Cuando h(π) sea todo un vector de r componente diferentes, la definición de consistencia se extiende de forma natural exigiendo la consistencia de cada una de las r componentes de su estimador. Así, diremos que ĥ (π) es un estimador consistente de h(π), si cada una de sus componentes ĥ i (π) lo es de la correspondiente h i (π). PROPIEDAD DE EFICIENCIA Y DE MINIMA VARIANZA. La propiedad de insesgadez asintótica al menos y de consistencia, pueden considerarse como las propiedades mínimas exigibles a un estimador para ser considerado como tal. Se necesitaría ahora una propiedad adicional que permitiera seleccionar entre estimadores cuando hay disponibles varios de Prof. D. Juan José Pérez Castejón 12

13 ellos que cumplan esos requisitos mínimos. Una propiedad así es la que se analizará en esta sección. Para simplificar, supondremos que tanto π como h(π) son cantidades unidimensionales. Al final de la sección, levantaremos en parte esas restricciones. Lo que se hecha en falta es un criterio que ayude a comparar estimadores entre sí. Tal criterio lo puede suministrar el ECM asociado a un estimador y que ya empleamos antes. Antes de seguir, modifiquemos un poco la forma de denotarlo. Puesto que será necesario, en aquellas referencias al ECM en las que se precise añadiremos dos símbolos que nos recuerden que el valor de esa cantidad depende del parámetro y que se trata del error asociado a un determinado estimador: ECM π (ĥ (π)) Ya que el ECM es una medida del error cometido al estimar h(π), parece bastante lógico escoger para trabajar, aquellos estimadores con menor ECM. Por ello, dados dos estimadores ĥ 1 (π) y ĥ 2 (π), diremos que el primero es mejor que el segundo si ECM π (ĥ 1 (π))<ecm π (ĥ 2 (π)). Esa desigualdad debe ser cierta π. Cuando la clase de los estimadores a considerar se restringe aún un poco más, y se descartan todos aquellos que no son insesgados en muestra finita, es posible ahondar más en la definición anterior, y buscar el mejor de todos ellos. Dado un determinado ĥ (π) insesgado, diremos que es el estimador insesgado de mínima varianza uniformemente (e.i.m.v.u.) si para cualquier otro ĥ (π) se cumple que ECM π (ĥ (π)) ECM π (ĥ (π)). Esa desigualdad debe ser cierta π. La definición de e.i.m.v.u. resulta muy atractiva. Caso de existir, el e.i.m.v.u. es claramente el estimador que debería emplearse para estimar h(π). Hay que advertir, sin embargo, que la definición no nos asegura la existencia del e.i.m.v.u. Dos condiciones implícitas se exigen en ella. Por un lado, para que exista el e.i.m.v.u. debe existir una cota inferior para la varianza de los estimadores insesgados de h(π). Esa cota variará con π y si se denota como COTA(π), debe cumplir que COTA(π) ECM π (ĥ (π)) π y ĥ (π) insesgado. Pero además, debe ocurrir también que exista un estimador específico, ĥ (π), que será el e.i.m.v.u., que alcance expresamente esa cota: Prof. D. Juan José Pérez Castejón 13

14 COTA(π)=ECM π (ĥ (π)) π. En el momento en el que una de esas dos condiciones no se dé, y esto es factible que ocurra, no existiría tampoco el e.i.m.v.u. Cabe preguntarse hasta qué punto existen resultados que aseguren el cumplimiento de una u otra de las dos condiciones comentadas en el párrafo anterior. Esta cuestión ha sido analizada y fruto de su análisis surgió un resultado estadístico muy importante, el Teorema de Frechet, Cramer y Rao (FCR), que a continuación vamos a exponer. Su enunciado exige primero establecer las condiciones que debe cumplir una determinada situación estadística para que el teorema pueda ser aplicado. Esa es la tarea inicial que realizaremos aunque de manera muy resumida. Después enunciaremos el teorema en sí. Para empezar, indiquemos que seguiremos suponiendo todas las hipótesis que se han venido comentando referidas a la estimación que se pretende: las que afectan a la dimensión de π y de h(π), etc. Añadamos la condiciones siguientes: a) La distribución de la v.a. poblacional cumple que el conjunto donde su función de densidad o de probabilidad no se anula, es independiente de π. Por su lado, el espacio paramétrico Π debe ser un conjunto abierto, acotado o no subconjunto de R mientras sigamos suponiendo que π es unidimensional. b) La esperanza E( ln Lπ (X) π ) 2 existe. En esa expresión se emplea el símbolo de derivada parcial,, en lugar del derivada total que sería mas correcto al suponer π unidimensional. Lo hacemos para que al tratar después el caso de π multidimensional, las mismas expresiones que ahora se escriban sigan siendo válidas. c) Son ciertas varias condiciones de regularidad generales adicionales que no enunciaremos de manera detallada. Supuesto que todo lo anterior se cumple, el teorema comentado afirma: Prof. D. Juan José Pérez Castejón 14

15 Teorema (cota FCR).- Si ĥ (π) es un estimador insesgado entonces var π (ĥ(π))=ecm π (ĥ(π)) es π mayor o igual que la siguiente cota: cotafcr(π)=( h ( π) π) /( E( ln Lπ(X1,..., Xn ) π)) Además un cierto estimador ĥ (π) insesgado cumplirá que su varianza es de hecho igual a esa cota y por ello será el e.i.m.v.u si y solo si es cierta la siguiente descomposición: lnlπ (X1,..., Xn ) π = (ĥ (π)-h(π))g(π) donde g(π) representa una función que no puede depender de las X i pero sí de π. El importante teorema anterior debe entenderse y usarse correctamente, y no emplearlo para obtener conclusiones falsas. En primer lugar, antes de aplicarlo, deberá comprobarse la veracidad de sus condiciones de aplicación. Caso de no darse esas condiciones, debe tenerse presente que la cotafcr no es relevante, y que el hecho de que un estimador la alcance ya no nos asegura nada. Una vez comprobado que las condiciones de aplicación son ciertas, deberá calcularse la cotafcr, que sería ya una cota inferior de la varianza de todos los estimadores insesgados de h(π). En este punto, sabríamos que la primera condición de existencia del e.i.m.v.u. la de la existencia de cota se da. La pregunta a contestar a continuación es si algún estimador insesgado es tal que su varianza iguale a la cota hallada segunda condición para que exista el e.i.m.v.u.. Para ello nos podemos ayudar de las descomposición indicada en el enunciado del teorema. Una respuesta afirmativa a esta nueva cuestión, daría lugar a la finalización con éxito de nuestra búsqueda. Sin embargo, una respuesta negativa a esta segunda cuestión no debe llevar a la negación de la existencia del e.i.m.v.u. Realmente, quedarían abiertas dos posibilidades y no podríamos decidir cuál es la cierta, al menos empleando únicamente el teorema FCR para hacerlo. La primera posibilidad es que el e.i.m.v.u. exista pero su varianza sea superior a la cotafcr, por lo que no la habríamos detectado nosotros. La segunda posibilidad es que realmente no exista e.i.m.v.u. Prof. D. Juan José Pérez Castejón 15

16 Como se ve, hay dos características que no son siempre equivalentes: ser e.i.m.v.u y que la varianza alcance la cota. Añadamos por ello una definición adicional: un cierto estimador ĥ (π) se dice eficiente si var π (ĥ(π))=cotafcr(π) π. Merece la pena incluir ahora dos notas de tipo técnico, que ayuden a aplicar del teorema enunciado: 1. De entre sus condiciones previas, solo contrastaremos inicialmente y de forma expresa, la que se refiere al dominio donde se anula la función de densidad o probabilidad de la población. La comprobación de las restantes condiciones va implícita en el desarrollo de los pasos posteriores. 2. El denominador de la cota FCR, siempre de difícil cálculo, tiene una expresión alternativa. Se cumple que: 2 2 E( ln Lπ(X1,..., Xn ) π)=e( lnlπ (X1,..., Xn ) π) 2 Si además estamos trabajando con una m.a.s, existen otras dos expresiones alternativas para él: 2 2 ne( ln Lπ(X) π) y ne( ln Lπ (X) π ) 2 En cada problema puede emplearse aquella que resulte más fácil de aplicar. Para terminar esta sección, vamos a eliminar las restricciones sobre π y h(π) que ambas sean unidimensionales con las que al principio encorsetábamos todo lo explicado. Lo haremos minimamente, pero asegurándonos, al menos, de no dejar fuera por completo un caso importante, el caso normal en el que π=(µ,σ). Para ello permitiremos que π tenga la dimensión que sea aunque mantendremos el hecho de que h(π) sea unidimensional añadiendo la restricción de que sea función solo de una determinada componente de π: h(π)=h(π i ). En este caso, lo que ocurre es que todo lo comentado sigue siendo totalmente válido y solo hay que saber que en la expresiones anteriores en las que aparecen derivadas parciales respecto de π, deben estas sustituirse por derivadas parciales respecto de la componente π i que interviene en h(π i ). Prof. D. Juan José Pérez Castejón 16

17 PROPIEDAD DE SUFICIENCIA. La propiedad de suficiencia no es tanto una propiedad de los estimadores, sino que se plantea para los estadísticos en general. Y tampoco está directa y únicamente dirigida a la estimación de una función de h(π), sino que está relacionada con el problema de la inferencia sobre π en general, independientemente del tipo de proceso inductivo que se emplee para llevarla a cabo. De todas maneras, la incluimos aquí de forma que esta sección se convierta en una pequeña revisión de algunas de las propiedades más relevantes relacionadas con la cuestión de la inducción estadística. Podemos cifrar el origen de la necesidad de disponer de estadísticos suficientes, en lo siguiente. Manejar una muestra completa puede convertirse en algo pesado por la gran cantidad de datos que puede incluir. Cabe preguntarse hasta qué punto es posible encontrar un estadístico con las componentes necesarias de forma que sus valores muestrales aporten la misma información sobre el parámetro π que la que aporta la propia muestra. Si se pudiera hallar, tendríamos que el conjunto de toda la muestra se puede resumir y sustituir por los valores del estadístico, sin perder la información relevante que aquella incluía sobre el parámetro. Con ello conseguiríamos seguramente un notable ahorro de medios: tiempo, dinero,... De nuevo encontramos aquí una idea muy sugerente pero cuya formalización resulta complicada. Son varios los elementos que tenemos que expresar en términos estadísticos. Primero está la idea de información sobre π suministrada por la muestra. Notemos que en el hecho de que la densidad o probabilidad conjunta de la muestra dependa de π, es aquel en el que hasta ahora nos hemos basado y así seguiremos haciendo para obtener conclusiones sobre ese parámetro. Piénsese en los métodos de estimación ya explicados. La información a resumir aportada por la muestra se concentra pues en la dependencia respecto de π de f π (x 1,...,x n ) o de p π (x 1,...,x n ) en el caso discreto. Por otro lado, una vez conocido el valor muestral t que presente determinado estadístico T, la información sobre π que queda en la muestra una vez eliminada la que va asociada al propio t, la aportaría la función de densidad probabilidad condicionada f X1,...,X n /T=t,π(x 1,...,x n ) p X1,...,X n /T=t,π(x 1,...,x n ). Prof. D. Juan José Pérez Castejón 17

18 Esta última función condicionada, en principio, podría depender del parámetro desconocido ya que las distribuciones originales así lo hacen. De hecho, si esa dependencia se da de forma efectiva, encontraríamos que incluso extrayendo la información aportada por T, en la muestra aún queda información relevante para π. Podemos ya definir el concepto de estadístico suficiente. Dada una muestra X 1,...,X n de cierta población X que se distribuye según f π (x) ó p π (x), el estadístico muestral T se dice que es un estadístico suficiente para π si f X1,...,X n /T=t,π(x 1,...,x n ) ó p X1,...,X n /T=t,π(x 1,...,x n ) es, de hecho, una función realmente independiente del parámetro desconocido π. Tres puntos adicionales deben de precisarse aún en esa definición: 1. Para que realmente el valor muestral de T sea un valor conocido y pueda ser empleado en la práctica, en sustitución de la realización completa de la muestra disponible, x 1,...,x n, T debe ser un estadístico cuya fórmula también esté libre de parámetros desconocidos, como ya dijimos que debe ocurrir, por ejemplo, con un estadístico que se piense usar como estimador. 2.- La independencia respecto de π de la función de densidad o de probabilidad condicionada, debe comprobarse para todo valor posible, lo que implica que debe ser cierta (x 1,...,x n ), incluso, por ejemplo, para aquellos en los que se anula, y t al que sea posible condicionar. 3. T es un estadístico con la dimensión necesaria, dimensión que no tiene por qué ser ni 1 ni igual a la de π. Por otro lado, si T resultara ser de la misma dimensión que π, tampoco debe entenderse que entonces cada componente T i pueda ser suficiente para cada π i ni nada similar. La única definición que se ha hecho es la que determina si un cierto T es suficiente de manera conjunta para el parámetro π, tenga este la dimensión que sea. En la práctica, hallar candidatos a estadístico suficientes y comprobar si lo son, empleando la definición de suficiencia, es una tarea complicada incluso en el caso de las distribuciones mas Prof. D. Juan José Pérez Castejón 18

19 sencillas. El siguiente resultado propone otro método mas simple de encontrar estadísticos suficientes : Teorema (criterio de factorizacion): En las condiciones que se vienen planteando, el estadístico T(X 1,...,X n ) definido a partir de la función determinista T(x 1,...,x n ), es suficiente para π si y solo si es cierta una descomposición como la que sigue: f π (x 1,...,x n ) ó p π (x 1,...,x n ) = h(x 1,...,x n )g π (T(x 1,...,x n )) La descomposición anterior debe ser cierta en todo vector (x 1,...,x n ). En ella, h representa una función que no puede depender de π. Por su lado, g sí depende de π pero en cambio, no depende directamente de las (x 1,...,x n ), sino que lo hace a través de una función de ellas, en concreto de la misma función con la que se define T. Intuitivamente, lo que exige la descomposición anterior es que la dependencia respecto de las (x 1,...,x n ) que f presente de manera conjunta e inseparable de π, se pueda expresar realmente en términos de T, mientras que el resto de dependencia de las (x 1,...,x n ), está libre de π. Una última propiedad de los estadísticos suficientes afirma lo siguiente: Teorema: Si T es un estadístico suficiente y g es una aplicación inyectiva de la dimensión adecuada, entonces g(t) también es suficiente. PROPIEDAD DE FAMILIA EXPONENCIAL. Tal y como se hizo en el apartado anterior, en este de ahora se comenta una propiedad, que más que estar específicamente relacionada con la estimación puntual, lo está con todo el conjunto de técnicas de la inferencia estadística. Examinaremos una propiedad de ciertas familias de distribuciones, la propiedad de familia exponencial. En lo que sigue, llamaremos familia de distribuciones a un conjunto de distribuciones estadísticas que tienen una función de densidad o de probabilidad que puede ser expresada según una formula general común. Todos los elementos que intervienen en esa fórmula están perfectamente identificados, a excepción de un cierto conjunto de parámetros, conjunto que representaremos por π. Prof. D. Juan José Pérez Castejón 19

20 Precisamente es π quien al ir tomando sus diferentes valores posibles, va generando las diferentes funciones de probabilidad o de densidad de las distribuciones que componen la familia. f π (x) ó p π (x) designará a la fórmula general a la que se ajusta la función de densidad o de probabilidad de las distribuciones pertenecientes a la familia que se analice. Aunque nos limitaremos a trabajar con distribuciones unidimensionales, π=(π 1,...,π k ) podrá tener la dimensión necesaria. El concepto que se acaba de definir, no es realmente nada nuevo y desconocido. Todas las distribuciones en su momento estudiadas, tales como las diferentes distribuciones de Bernouilli que dependían de la probabilidad p de éxito, o las distribuciones normales que dependían de µ y σ, y así cualquier otra, son casos concretos de familias de distribuciones. Por otro lado, la hipótesis paramétrica sobre la que estamos desarrollando todo el análisis inductivo, lo que en el fondo hace es suponer que la distribución poblacional pertenece a una determinada familia de distribuciones. Una familia de distribuciones se dirá que es una familia k c i ( π)di (x) i= 1 exponencial si f π (x) ó p π (x) cumple: f π(x) = a( π)b(x)e. Esa descomposición debe ser cierta x y π. Nótese que a(π) representa una función que depende de π pero no de x, mientras que con b(x) ocurre lo contrario. A su vez, en el exponente de la potencia aparecen, como máximo, tantos sumandos como componentes tiene π. Aunque el hecho de ser familia exponencial dota al correspondiente conjunto de distribuciones estadísticas de muy buenas propiedades, no emplearemos por ahora más este concepto. Solo pondremos un ejemplo que ilustre la relación entre las familias exponenciales y algunas de las restantes propiedades ya comentadas. Se trata de una propiedad de fácil demostración, que razona cómo obtener un estadístico suficiente si se dispone de una familia exponencial: Teorema: Dada una familia exponencial que cumpla una descomposición como la señalada, entonces el siguiente estadístico k dimensional es suficiente para π: T=( d n i= 1 1 (Xi) n,..., d (X ). i= 1 k i) Prof. D. Juan José Pérez Castejón 20

21 Propiedades de algunos de los estimadores obtenidos. Es conveniente cerrar el tema comprobando si los estimadores obtenidos mediante los métodos de estimación que se comentaron inicialmente, cumplen algunas de las propiedades que se han expuesto. Lo haremos solamente para el e.m.v. ya que es el estimador de uso más común, a la vez que el que mejor propiedades posee. Las propiedades del e.m.v. se derivan del resultado que se va a comentar a continuación. Podemos considerar que sus condiciones de aplicación son, básicamente, las de aplicación del teorema FCR. Haremos un enunciado parcial del resultado, recogiendo únicamente aquellos aspectos que precisemos para derivar las propiedades del e.m.v. que después se expongan. Teorema: El e.m.v. cumple que: Prof. D. Juan José Pérez Castejón 21 (ĥ (π) h(π))/(cotafcr(π)) ½ L N(0,1) Las implicaciones de este resultado suponen muy buenas propiedades para el e.m.v. Para empezar, la convergencia en ley indicada provoca que ĥ (π) (cotafcr(π)) ½ N(0,1)+h(π), siendo la aproximación entre el comportamiento probabilístico de los dos términos de esa expresión, más exacta cuanto mayor sea el tamaño muestral. Equivalentemente podemos expresar esa aproximación como ĥ (π) N(h(π),cotaFCR(π)). De tales aproximaciones, se deduce primero que lim n E(ĥ (π))=h(π), o lo que es lo mismo, que el e.m.v es asintóticamente insesgado. También podemos deducir que var(ĥ (π)) cotafcr(π) y que ambas series tendrán el mismo límite. Si se revisa la expresión de la cota, esta es una serie que converge a cero (véase, por ejemplo su fórmula cuando se maneja una m.a.s., aunque también es cierta la convergencia a cero para otro tipo de muestras). Así, se podrá decir que lo mismo ocurre con var(ĥ (π)) y que, por ello, el e.m.v. también es consistente. La propiedad de ser e.i.m.v.u. no tiene sentido plantearla en general para todo e.m.v. puesto que no hemos podido demostrar que sea insesgado. La propiedad de eficiencia tampoco será cierta

22 pues solo es var(ĥ (π)) cotafcr(π). Lo que sí que queda demostrado con esa proximación es que el e.m.v. es asintóticamente eficiente en el sentido de que su varianza y la cotafcr se aproximan entre sí todo lo que queramos conforme aumenta el tamaño muestral. Muy útil es otro implicación derivada del resultado anterior. Nos referimos al comportamiento probabilístico normal al menos asintóticamente del e.m.v. En más de una ocasión en la que la distribución exacta en muestra finita de ese estimador no se conozca, saber al menos que si el tamaño muestral es grande esa distribución se puede aproximar bastante bien por la distribución normal, facilitará la realización de más de un procedimiento inductivo, aunque estaremos limitados a considerar que sus conclusiones son válidas solo como aproximación. Debe hacerse hincapié en que las propiedades comentadas son asintóticas no son propiedades exactas en muestra finita y basadas en aproximaciones. No es descartable que en situaciones particulares se demuestren propiedades más fuertes para el e.m.v., por ejemplo, insesgadez en vez de solo insegadez asintótica, etc. Al mismo tiempo, si se dispone de la versión exacta y no aproximada de una de estas propiedades por ejemplo, la distribución exacta frente a la asintótica siempre sería preferible usarla para realizar inferencia si ello es factible. Prof. D. Juan José Pérez Castejón 22

ESTIMACIÓN. puntual y por intervalo

ESTIMACIÓN. puntual y por intervalo ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio

Más detalles

T.3 ESTIMACIÓN PUNTUAL

T.3 ESTIMACIÓN PUNTUAL T.3 ESTIMACIÓN PUNTUAL 1. INTRODUCCIÓN: ESTIMACIÓN Y ESTIMADOR 2. PROPIEDADES DE LOS ESTIMADORES 3. MÉTODOS DE ESTIMACIÓN. EJEMPLO 1, EJEMPLO 2 1. Introducción: Estimación y Estimador En este tema se analizan

Más detalles

Covarianza y coeficiente de correlación

Covarianza y coeficiente de correlación Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también

Más detalles

Aproximación local. Plano tangente. Derivadas parciales.

Aproximación local. Plano tangente. Derivadas parciales. Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación

Más detalles

8. Estimación puntual

8. Estimación puntual 8. Estimación puntual Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 1 / 30 Contenidos 1 Introducción 2 Construcción de estimadores

Más detalles

T.1 CONVERGENCIA Y TEOREMAS LÍMITE

T.1 CONVERGENCIA Y TEOREMAS LÍMITE T.1 CONVERGENCIA Y TEOREMAS LÍMITE 1. CONVERGENCIA DE SUCESIONES DE VARIABLES ALEATORIA CONVERGENCIA CASI-SEGURA CONVERGENCIA EN PROBABILIDAD CONVERGENCIA EN MEDIA CUADRÁTICA CONVERGENCIA EN LEY ( O DISTRIBUCIÓN)

Más detalles

ANÁLISIS DE DATOS NO NUMERICOS

ANÁLISIS DE DATOS NO NUMERICOS ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas

Más detalles

Apuntes de Matemática Discreta 9. Funciones

Apuntes de Matemática Discreta 9. Funciones Apuntes de Matemática Discreta 9. Funciones Francisco José González Gutiérrez Cádiz, Octubre de 004 Universidad de Cádiz Departamento de Matemáticas ii Lección 9 Funciones Contenido 9.1 Definiciones y

Más detalles

Ecuaciones de primer grado con dos incógnitas

Ecuaciones de primer grado con dos incógnitas Ecuaciones de primer grado con dos incógnitas Si decimos: "las edades de mis padres suman 120 años", podemos expresar esta frase algebraicamente de la siguiente forma: Entonces, Denominamos x a la edad

Más detalles

Tema 12: Contrastes Paramétricos

Tema 12: Contrastes Paramétricos Tema 1 Tema 1: Contrastes Paramétricos Presentación y Objetivos. Se comienza este tema introduciendo la terminología y conceptos característicos de los contrastes de hipótesis, típicamente a través de

Más detalles

Aplicaciones lineales continuas

Aplicaciones lineales continuas Lección 13 Aplicaciones lineales continuas Como preparación para el cálculo diferencial, estudiamos la continuidad de las aplicaciones lineales entre espacios normados. En primer lugar probamos que todas

Más detalles

Tema 10. Estimación Puntual.

Tema 10. Estimación Puntual. Tema 10. Estimación Puntual. Presentación y Objetivos. 1. Comprender el concepto de estimador y su distribución. 2. Conocer y saber aplicar el método de los momentos y el de máxima verosimilitud para obtener

Más detalles

E 1 E 2 E 2 E 3 E 4 E 5 2E 4

E 1 E 2 E 2 E 3 E 4 E 5 2E 4 Problemas resueltos de Espacios Vectoriales: 1- Para cada uno de los conjuntos de vectores que se dan a continuación estudia si son linealmente independientes, sistema generador o base: a) (2, 1, 1, 1),

Más detalles

Inferencia Estadística

Inferencia Estadística EYP14 Estadística para Construcción Civil 1 Inferencia Estadística El campo de la inferencia estadística está formado por los métodos utilizados para tomar decisiones o para obtener conclusiones sobre

Más detalles

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos

Más detalles

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES Tema 07 LÍMITES Y CONTINUIDAD DE FUNCIONES Límite de una función en un punto Vamos a estudiar el comportamiento de las funciones f ( ) g ( ) ENT[ ] h ( ) i ( ) en el punto Para ello, damos a valores próimos

Más detalles

UNIDAD 1. LOS NÚMEROS ENTEROS.

UNIDAD 1. LOS NÚMEROS ENTEROS. UNIDAD 1. LOS NÚMEROS ENTEROS. Al final deberás haber aprendido... Interpretar y expresar números enteros. Representar números enteros en la recta numérica. Comparar y ordenar números enteros. Realizar

Más detalles

Divisibilidad y números primos

Divisibilidad y números primos Divisibilidad y números primos Divisibilidad En muchos problemas es necesario saber si el reparto de varios elementos en diferentes grupos se puede hacer equitativamente, es decir, si el número de elementos

Más detalles

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1 . ESPACIOS VECTORIALES Consideremos el siguiente subconjunto de R 4 : S = {(x, x 2, x 3, x 4 )/x x 4 = 0 x 2 x 4 = x 3 a. Comprobar que S es subespacio vectorial de R 4. Para demostrar que S es un subespacio

Más detalles

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor Tema 5 Aproximación funcional local: Polinomio de Taylor Teoría Los polinomios son las funciones reales más fáciles de evaluar; por esta razón, cuando una función resulta difícil de evaluar con exactitud,

Más detalles

CAPÍTULO III. FUNCIONES

CAPÍTULO III. FUNCIONES CAPÍTULO III LÍMITES DE FUNCIONES SECCIONES A Definición de límite y propiedades básicas B Infinitésimos Infinitésimos equivalentes C Límites infinitos Asíntotas D Ejercicios propuestos 85 A DEFINICIÓN

Más detalles

UNIDAD 1 LAS LEYES FINANCIERAS DE CAPITALIZACIÓN DESCUENTO

UNIDAD 1 LAS LEYES FINANCIERAS DE CAPITALIZACIÓN DESCUENTO - 1 - UNIDAD 1 LAS LEYES FINANCIERAS DE CAPITALIZACIÓN Y DESCUENTO Tema 1: Operaciones financieras: elementos Tema 2: Capitalización y descuento simple Tema 3: Capitalización y descuento compuesto Tema

Más detalles

Subconjuntos destacados en la

Subconjuntos destacados en la 2 Subconjuntos destacados en la topología métrica En este capítulo, introducimos una serie de conceptos ligados a los puntos y a conjuntos que por el importante papel que juegan en la topología métrica,

Más detalles

LÍMITES Y CONTINUIDAD DE FUNCIONES

LÍMITES Y CONTINUIDAD DE FUNCIONES Capítulo 9 LÍMITES Y CONTINUIDAD DE FUNCIONES 9.. Introducción El concepto de ite en Matemáticas tiene el sentido de lugar hacia el que se dirige una función en un determinado punto o en el infinito. Veamos

Más detalles

Matemáticas 2º BTO Aplicadas a las Ciencias Sociales

Matemáticas 2º BTO Aplicadas a las Ciencias Sociales Matemáticas 2º BTO Aplicadas a las Ciencias Sociales CONVOCATORIA EXTRAORDINARIA DE JUNIO 2014 MÍNIMOS: No son contenidos mínimos los señalados como de ampliación. I. PROBABILIDAD Y ESTADÍSTICA UNIDAD

Más detalles

ACCIONES Y OTROS TÍTULOS DE INVERSIÓN

ACCIONES Y OTROS TÍTULOS DE INVERSIÓN ACCIONES Y OTROS TÍTULOS DE INVERSIÓN TASAS EFECTIVAS DE RENDIMIENTO ANUAL Y MENSUAL: Es aquélla que se emplea en la compraventa de algunos valores en el Mercado Bursátil o Bolsa de Valores. Estas tasas

Más detalles

Un problema sobre repetidas apuestas al azar

Un problema sobre repetidas apuestas al azar Un problema sobre repetidas apuestas al azar Eleonora Catsigeras 1 10 de marzo de 2003. Resumen En estas notas se da el enunciado y una demostración de un conocido resultado sobre la probabilidad de éxito

Más detalles

1.1. Introducción y conceptos básicos

1.1. Introducción y conceptos básicos Tema 1 Variables estadísticas Contenido 1.1. Introducción y conceptos básicos.................. 1 1.2. Tipos de variables estadísticas................... 2 1.3. Distribuciones de frecuencias....................

Más detalles

1. Ecuaciones no lineales

1. Ecuaciones no lineales 1. Ecuaciones no lineales 1.1 Ejercicios resueltos Ejercicio 1.1 Dada la ecuación xe x 1 = 0, se pide: a) Estudiar gráficamente sus raíces reales y acotarlas. b) Aplicar el método de la bisección y acotar

Más detalles

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO 1º) Considérese un número estrictamente positivo del sistema de números máquina F(s+1, m, M, 10). Supongamos que tal número es: z = 0.d 1 d...d s 10 e Responde

Más detalles

Definición de vectores

Definición de vectores Definición de vectores Un vector es todo segmento de recta dirigido en el espacio. Cada vector posee unas características que son: Origen: O también denominado Punto de aplicación. Es el punto exacto sobre

Más detalles

Funciones de varias variables

Funciones de varias variables Funciones de varias variables Derivadas parciales. El concepto de función derivable no se puede extender de una forma sencilla para funciones de varias variables. Aquí se emplea el concepto de diferencial

Más detalles

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1 1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1.1. ESPACIOS VECTORIALES 1. Analizar cuáles de los siguientes subconjuntos de R 3 son subespacios vectoriales. a) A = {(2x, x, 7x)/x R} El conjunto A es una

Más detalles

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Francisco José González Gutiérrez Cádiz, Octubre de 2004 Universidad de Cádiz Departamento de Matemáticas ii Lección 1 Conjuntos y Subconjuntos

Más detalles

Problemas de Probabilidad resueltos.

Problemas de Probabilidad resueltos. Problemas de Probabilidad resueltos. Problema 1 El profesor Pérez olvida poner su despertador 3 de cada 10 dias. Además, ha comprobado que uno de cada 10 dias en los que pone el despertador acaba no levandandose

Más detalles

Ejemplos y problemas resueltos de análisis complejo (2014-15)

Ejemplos y problemas resueltos de análisis complejo (2014-15) Variable Compleja I (3 o de Matemáticas y 4 o de Doble Titulación) Ejemplos y problemas resueltos de análisis complejo (04-5) Teoremas de Cauchy En estos apuntes, la palabra dominio significa, como es

Más detalles

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Datos del autor Nombres y apellido: Germán Andrés Paz Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Correo electrónico: germanpaz_ar@hotmail.com =========0========= Introducción

Más detalles

Ingeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007

Ingeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007 Enunciado Se desea efectuar el testing funcional de un programa que ejecuta transferencias entre cuentas bancarias. El programa recibe como parámetros la cuenta de origen, la de cuenta de destino y el

Más detalles

Semana 08 [1/15] Axioma del Supremo. April 18, 2007. Axioma del Supremo

Semana 08 [1/15] Axioma del Supremo. April 18, 2007. Axioma del Supremo Semana 08 [1/15] April 18, 2007 Acotamiento de conjuntos Semana 08 [2/15] Cota Superior e Inferior Antes de presentarles el axioma del supremo, axioma de los números reales, debemos estudiar una serie

Más detalles

x 10000 y 8000 x + y 15000 a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas.

x 10000 y 8000 x + y 15000 a) La región factible asociada a las restricciones anteriores es la siguiente: Pedro Castro Ortega lasmatematicas. Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Septiembre 2012 - Propuesta A 1. Queremos realizar una inversión en dos tipos

Más detalles

Matrices equivalentes. El método de Gauss

Matrices equivalentes. El método de Gauss Matrices equivalentes. El método de Gauss Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar A en B mediante una combinación de las siguientes operaciones: Multiplicar

Más detalles

CESMA BUSINESS SCHOOL MATEMÁTICAS FINANCIERAS. TEMA 3 CAPITALIZACIÓN COMPUESTA

CESMA BUSINESS SCHOOL MATEMÁTICAS FINANCIERAS. TEMA 3 CAPITALIZACIÓN COMPUESTA CESMA BUSINESS SCHOOL MATEMÁTICAS FINANCIERAS. TEMA 3 CAPITALIZACIÓN COMPUESTA Javier Bilbao García 1 1.- Capitalización Compuesta Definición: Operación financiera que persigue sustituir un capital por

Más detalles

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión...

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión... Tema 8 Análisis de dos variables: dependencia estadística y regresión Contenido 8.1. Introducción............................. 1 8.2. Dependencia/independencia estadística.............. 2 8.3. Representación

Más detalles

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases. BASES Y DIMENSIÓN Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. β Propiedades

Más detalles

Diferenciabilidad. Definición 1 (Función diferenciable). Cálculo. Segundo parcial. Curso 2004-2005

Diferenciabilidad. Definición 1 (Función diferenciable). Cálculo. Segundo parcial. Curso 2004-2005 Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Diferenciabilidad. 1. Definición de función diferenciable Después del estudio de los ites de funciones

Más detalles

Sistemas de numeración

Sistemas de numeración Sistemas de numeración Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. Los sistemas de numeración actuales son sistemas posicionales, que se caracterizan

Más detalles

Tema 2: Estimación puntual

Tema 2: Estimación puntual Tema 2: Estimación puntual 1 (basado en el material de A. Jach (http://www.est.uc3m.es/ajach/) y A. Alonso (http://www.est.uc3m.es/amalonso/)) Planteamiento del problema: estimador y estimación Insesgadez

Más detalles

Tema 3. Espacios vectoriales

Tema 3. Espacios vectoriales Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición

Más detalles

1.4.- D E S I G U A L D A D E S

1.4.- D E S I G U A L D A D E S 1.4.- D E S I G U A L D A D E S OBJETIVO: Que el alumno conozca y maneje las reglas empleadas en la resolución de desigualdades y las use para determinar el conjunto solución de una desigualdad dada y

Más detalles

Los números racionales

Los números racionales Los números racionales Los números racionales Los números fraccionarios o fracciones permiten representar aquellas situaciones en las que se obtiene o se debe una parte de un objeto. Todas las fracciones

Más detalles

ÍNDICE DISEÑO DE CONTADORES SÍNCRONOS JESÚS PIZARRO PELÁEZ

ÍNDICE DISEÑO DE CONTADORES SÍNCRONOS JESÚS PIZARRO PELÁEZ ELECTRÓNICA DIGITAL DISEÑO DE CONTADORES SÍNCRONOS JESÚS PIZARRO PELÁEZ IES TRINIDAD ARROYO DPTO. DE ELECTRÓNICA ÍNDICE ÍNDICE... 1 1. LIMITACIONES DE LOS CONTADORES ASÍNCRONOS... 2 2. CONTADORES SÍNCRONOS...

Más detalles

TEMA 4: Variables binarias

TEMA 4: Variables binarias TEMA 4: Variables binarias Econometría I M. Angeles Carnero Departamento de Fundamentos del Análisis Económico Curso 2011-12 Econometría I (UA) Tema 4: Variables binarias Curso 2011-12 1 / 51 Variables

Más detalles

Administración de Empresas. 11 Métodos dinámicos de evaluación de inversiones 11.1

Administración de Empresas. 11 Métodos dinámicos de evaluación de inversiones 11.1 Administración de Empresas. 11 Métodos dinámicos de evaluación de inversiones 11.1 TEMA 11: MÉTODOS DINÁMICOS DE SELECCIÓN DE INVERSIONES ESQUEMA DEL TEMA: 11.1. Valor actualizado neto. 11.2. Tasa interna

Más detalles

Ejercicio de estadística para 3º de la ESO

Ejercicio de estadística para 3º de la ESO Ejercicio de estadística para 3º de la ESO Unibelia La estadística es una disciplina técnica que se apoya en las matemáticas y que tiene como objetivo la interpretación de la realidad de una población

Más detalles

Aplicaciones Lineales y Multilineales Continuas

Aplicaciones Lineales y Multilineales Continuas Capítulo 4 Aplicaciones Lineales y Multilineales Continuas La conexión entre las estructuras vectorial y topológica de los espacios normados, se pone claramente de manifiesto en el estudio de las aplicaciones

Más detalles

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales.

Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Este documento ha sido generado para facilitar la impresión de los contenidos. Los enlaces a otras páginas no serán funcionales. Introducción Por qué La Geometría? La Geometría tiene como objetivo fundamental

Más detalles

Estimación de una probabilidad

Estimación de una probabilidad Estimación de una probabilidad Introducción En general, la probabilidad de un suceso es desconocida y debe estimarse a partir de una muestra representativa. Para ello, deberemos conocer el procedimiento

Más detalles

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada FUNCIONES CONTINUAS. La mayor parte de las funciones que manejamos, a nivel elemental, presentan en sus gráficas una propiedad característica que es la continuidad. La continuidad de una función definida

Más detalles

Control Estadístico de Procesos

Control Estadístico de Procesos Control Estadístico de Procesos Gráficos de Control Los gráficos de control o cartas de control son una importante herramienta utilizada en control de calidad de procesos. Básicamente, una Carta de Control

Más detalles

DOMINIO Y RANGO página 89. Cuando se grafica una función existen las siguientes posibilidades:

DOMINIO Y RANGO página 89. Cuando se grafica una función existen las siguientes posibilidades: DOMINIO Y RANGO página 89 3. CONCEPTOS Y DEFINICIONES Cuando se grafica una función eisten las siguientes posibilidades: a) Que la gráfica ocupe todo el plano horizontalmente (sobre el eje de las ). b)

Más detalles

Subespacios vectoriales en R n

Subespacios vectoriales en R n Subespacios vectoriales en R n Víctor Domínguez Octubre 2011 1. Introducción Con estas notas resumimos los conceptos fundamentales del tema 3 que, en pocas palabras, se puede resumir en técnicas de manejo

Más detalles

6 M. C. J. A G U S T I N F L O R E S A V I L A

6 M. C. J. A G U S T I N F L O R E S A V I L A 2..- DEFINICION DE LIMITES. OBJETIVO.- Que el alumno conozca el concepto de Límite, comprenda la importancia que tiene este concepto en el Cálculo y adquiera habilidad en el cálculo de los Límites más

Más detalles

Espacios generados, dependencia lineal y bases

Espacios generados, dependencia lineal y bases Espacios generados dependencia lineal y bases Departamento de Matemáticas CCIR/ITESM 14 de enero de 2011 Índice 14.1. Introducción............................................... 1 14.2. Espacio Generado............................................

Más detalles

Análisis de los datos

Análisis de los datos Universidad Complutense de Madrid CURSOS DE FORMACIÓN EN INFORMÁTICA Análisis de los datos Hojas de cálculo Tema 6 Análisis de los datos Una de las capacidades más interesantes de Excel es la actualización

Más detalles

TABLA DE DECISION. Consideremos la siguiente tabla, expresada en forma genérica, como ejemplo y establezcamos la manera en que debe leerse.

TABLA DE DECISION. Consideremos la siguiente tabla, expresada en forma genérica, como ejemplo y establezcamos la manera en que debe leerse. TABLA DE DECISION La tabla de decisión es una herramienta que sintetiza procesos en los cuales se dan un conjunto de condiciones y un conjunto de acciones a tomar según el valor que toman las condiciones.

Más detalles

EJERCICIOS DE REPASO SOBRE DERIVABILIDAD III. PROBLEMAS DE OPTIMIZACIÓN

EJERCICIOS DE REPASO SOBRE DERIVABILIDAD III. PROBLEMAS DE OPTIMIZACIÓN EJERCICIOS DE REPASO SOBRE DERIVABILIDAD III. PROBLEMAS DE OPTIMIZACIÓN Una de las aplicaciones más comunes de los conceptos relacionados con la derivada de una función son los problemas de optimización.

Más detalles

El problema del cumpleaños

El problema del cumpleaños El problema del cumpleaños Vicent Giner i Bosch 26 de febrero de 2004 Dedicado a mis alumnos de la Escuela Técnica Superior de Ingeniería del Diseño de la Universidad Politécnica de Valencia, en quienes

Más detalles

EJERCICIOS DE FUNCIONES REALES

EJERCICIOS DE FUNCIONES REALES EJERCICIOS DE FUNCIONES REALES.- La ley que relaciona el valor del área de un cuadrado con la longitud de su lado es una función. Sabemos que la epresión que nos relacionas ambas variables es. Observa

Más detalles

PROGRAMACIÓN LINEAL. 8.1. Introducción. 8.2. Inecuaciones lineales con 2 variables

PROGRAMACIÓN LINEAL. 8.1. Introducción. 8.2. Inecuaciones lineales con 2 variables Capítulo 8 PROGRAMACIÓN LINEAL 8.1. Introducción La programación lineal es una técnica matemática relativamente reciente (siglo XX), que consiste en una serie de métodos y procedimientos que permiten resolver

Más detalles

1. Producto escalar, métrica y norma asociada

1. Producto escalar, métrica y norma asociada 1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la

Más detalles

Cap. 24 La Ley de Gauss

Cap. 24 La Ley de Gauss Cap. 24 La Ley de Gauss Una misma ley física enunciada desde diferentes puntos de vista Coulomb Gauss Son equivalentes Pero ambas tienen situaciones para las cuales son superiores que la otra Aquí hay

Más detalles

1. Números Reales 1.1 Clasificación y propiedades

1. Números Reales 1.1 Clasificación y propiedades 1. Números Reales 1.1 Clasificación y propiedades 1.1.1 Definición Número real, cualquier número racional o irracional. Los números reales pueden expresarse en forma decimal mediante un número entero,

Más detalles

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones Fracciones. Las fracciones y los números Racionales Las fracciones se utilizan cotidianamente en contextos relacionados con la medida, el reparto o como forma de relacionar dos cantidades. Tenemos entonces

Más detalles

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES Tema: Cartas de Servicios Primera versión: 2008 Datos de contacto: Evaluación y Calidad. Gobierno de Navarra. evaluacionycalidad@navarra.es

Más detalles

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR}

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR} Subespacios Capítulo 1 Definición 1.1 Subespacio Sea H un subconjunto no vacio de un espacio vectorial V K. Si H es un espacio vectorial sobre K bajo las operaciones de suma y multiplicación por escalar

Más detalles

LA SELECCION DE PERSONAL

LA SELECCION DE PERSONAL LA SELECCION DE PERSONAL FASES DE LA SELECCION La selección, como cualquier otro proceso dentro de una organización, necesita seguir una serie de pasos perfectamente definidos y estructurados. Lo ideal

Más detalles

I. RELACIONES Y FUNCIONES 1.1. PRODUCTO CARTESIANO { }

I. RELACIONES Y FUNCIONES 1.1. PRODUCTO CARTESIANO { } I. RELACIONES Y FUNCIONES PAREJAS ORDENADAS Una pareja ordenada se compone de dos elementos x y y, escribiéndose ( x, y ) donde x es el primer elemento y y el segundo elemento. Teniéndose que dos parejas

Más detalles

1. Dominio, simetría, puntos de corte y periodicidad

1. Dominio, simetría, puntos de corte y periodicidad Estudio y representación de funciones 1. Dominio, simetría, puntos de corte y periodicidad 1.1. Dominio Al conjunto de valores de x para los cuales está definida la función se le denomina dominio. Se suele

Más detalles

Indicaciones específicas para los análisis estadísticos.

Indicaciones específicas para los análisis estadísticos. Tutorial básico de PSPP: Vídeo 1: Describe la interfaz del programa, explicando en qué consiste la vista de datos y la vista de variables. Vídeo 2: Muestra cómo crear una base de datos, comenzando por

Más detalles

La conveniencia de erradicar de nuestro sistema educativo las preguntas que restan en los exámenes tipo test

La conveniencia de erradicar de nuestro sistema educativo las preguntas que restan en los exámenes tipo test DESARROLLO Y EXPLICACIONES ADICIONALES DEL ARTÍCULO DE LA VANGUARDIA RESTAR NO SUMA Por Fernando Trias de Bes La conveniencia de erradicar de nuestro sistema educativo las preguntas que restan en los exámenes

Más detalles

5.1. Organizar los roles

5.1. Organizar los roles Marco de intervención con personas en grave situación de exclusión social 5 Organización de la acción 5.1. Organizar los roles Parece que el modelo que vamos perfilando hace emerger un rol central de acompañamiento

Más detalles

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define. VECTORES El estudio de los vectores es uno de tantos conocimientos de las matemáticas que provienen de la física. En esta ciencia se distingue entre magnitudes escalares y magnitudes vectoriales. Se llaman

Más detalles

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas

MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Universidad de Cádiz Departamento de Matemáticas MATEMÁTICAS para estudiantes de primer curso de facultades y escuelas técnicas Tema Representación gráfica de funciones reales de una variable real Elaborado

Más detalles

Problemas fáciles y problemas difíciles. Cuando a los niños les planteamos problemas de suma y resta, Laura dejó sin resolver el siguiente problema:

Problemas fáciles y problemas difíciles. Cuando a los niños les planteamos problemas de suma y resta, Laura dejó sin resolver el siguiente problema: Problemas fáciles y problemas difíciles Alicia Avila Profesora investigadora de la Universidad Pedagógica Nacional Cuando a los niños les planteamos problemas de suma y resta, Laura dejó sin resolver el

Más detalles

Unidad 6 Cálculo de máximos y mínimos

Unidad 6 Cálculo de máximos y mínimos Unidad 6 Cálculo de máimos y mínimos Objetivos Al terminar la unidad, el alumno: Utilizará la derivada para decidir cuándo una función es creciente o decreciente. Usará la derivada para calcular los etremos

Más detalles

QUÉ ES LA RENTABILIDAD Y CÓMO MEDIRLA. La rentabilidad mide la eficiencia con la cual una empresa utiliza sus recursos financieros.

QUÉ ES LA RENTABILIDAD Y CÓMO MEDIRLA. La rentabilidad mide la eficiencia con la cual una empresa utiliza sus recursos financieros. QUÉ ES LA RENTABILIDAD Y CÓMO MEDIRLA La rentabilidad mide la eficiencia con la cual una empresa utiliza sus recursos financieros. Qué significa esto? Decir que una empresa es eficiente es decir que no

Más detalles

FUNCIONES CUADRÁTICAS Y RACIONALES

FUNCIONES CUADRÁTICAS Y RACIONALES www.matesronda.net José A. Jiménez Nieto FUNCIONES CUADRÁTICAS Y RACIONALES 1. FUNCIONES CUADRÁTICAS. Representemos, en función de la longitud de la base (), el área (y) de todos los rectángulos de perímetro

Más detalles

CÁLCULO PARA LA INGENIERÍA 1

CÁLCULO PARA LA INGENIERÍA 1 CÁLCULO PARA LA INGENIERÍA 1 PROBLEMAS RESUELTOS Tema 3 Derivación de funciones de varias variables 3.1 Derivadas y diferenciales de funciones de varias variables! 1. Derivadas parciales de primer orden.!

Más detalles

Análisis de medidas conjuntas (conjoint analysis)

Análisis de medidas conjuntas (conjoint analysis) Análisis de medidas conuntas (conoint analysis). Introducción Como ya hemos dicho anteriormente, esta técnica de análisis nos sirve para analizar la importancia que dan los consumidores a cada uno de los

Más detalles

Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA. Funciones

Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA. Funciones Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA Funciones José R. Jiménez F. Temas de pre-cálculo I ciclo 007 Funciones 1 Índice 1. Funciones 3 1.1. Introducción...................................

Más detalles

INTRODUCCIÓN: Una Visión Global del Proceso de Creación de Empresas

INTRODUCCIÓN: Una Visión Global del Proceso de Creación de Empresas INTRODUCCIÓN: Una Visión Global del Proceso de Creación de Empresas 1 INTRODUCCIÓN. Una visión global del proceso de creación de empresas Cuando se analiza desde una perspectiva integral el proceso de

Más detalles

1.4. Comparación con otras actividades de ocio

1.4. Comparación con otras actividades de ocio 1.4. Comparación con otras actividades de ocio Continuamos con otro bloque de preguntas dirigidas a toda la población entrevistada. Esta vez, la intención de la batería de preguntas que proponíamos se

Más detalles

4 Pruebas y análisis del software

4 Pruebas y análisis del software 4 Pruebas y análisis del software En este capítulo se presentan una serie de simulaciones donde se analiza el desempeño de ambos sistemas programados en cuanto a exactitud con otros softwares que se encuentran

Más detalles

Lección 1-Introducción a los Polinomios y Suma y Resta de Polinomios. Dra. Noemí L. Ruiz Limardo 2009

Lección 1-Introducción a los Polinomios y Suma y Resta de Polinomios. Dra. Noemí L. Ruiz Limardo 2009 Lección 1-Introducción a los Polinomios y Suma y Resta de Polinomios Dra. Noemí L. Ruiz Limardo 2009 Objetivos de la Lección Al finalizar esta lección los estudiantes: Identificarán, de una lista de expresiones

Más detalles

Test ( o Prueba ) de Hipótesis

Test ( o Prueba ) de Hipótesis Test de Hipótesis 1 Test ( o Prueba ) de Hipótesis Ejemplo: Una muestra de 36 datos tiene una media igual a 4.64 Qué puede deducirse acerca de la población de donde fue tomada? Se necesita contestar a

Más detalles

PROBLEMAS DE ECUACIONES SIMULTÁNEAS

PROBLEMAS DE ECUACIONES SIMULTÁNEAS PROBLEMAS DE ECUACIONES SIMULTÁNEAS Por: ELÍAS LOYOLA CAMPOS 1. En un recinto del zoológico se tienen dos tipos de animales: avestruces y jirafas. Hay 30 ojos y 44 patas, cuántos animales hay de cada tipo?

Más detalles

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores EJERCICIOS DE MATEMÁTICAS I HOJA 4 Ejercicio 1. Se consideran los vectores u 1 = (1, 1, 0, 1), u 2 = (0, 2, 1, 0), u 3 = ( 1, 1, 1, 1), u 4 = (2, 2, 1, 0) de R 4. Expresa, si es posible, los vectores u

Más detalles