PREDICCIÓN METEOROLÓGICA

Tamaño: px
Comenzar la demostración a partir de la página:

Download "PREDICCIÓN METEOROLÓGICA"

Transcripción

1 PREDICCIÓN METEOROLÓGICA PRÁCTICA FINAL INTELIGENCIA EN REDES DE COMUNICAIONES Roberto Díaz Morales Jaime Mayor Berzal

2 Índice Introducción Tratamiento de datos Predicciones Cuadro con errores Conclusiones Código para traducir el código METAR

3 Introducción Para desarrollar el sistema real de predicción meteorológica, se necesita algún tipo de información que nos ayude a lograr el objetivo. Dicha información es la información METAR (Meteorological Actual Report) que es preciso y fácil de leer. Dicho código proporciona información muy valiosa que utilizan líneas aéreas y organizaciones gubernamentales de todo el mundo. La forma de presentación de dichos datos es la siguiente: HoraCET Temperatura (grados Fahrenheit) Punto de rocío (grados Fahrenheit) Humedad Presión (pulgadas) Visibilidad Dirección del viento Velocidad del viento (millas por hora) Velocidad de ráfagas de viento (millas por hora) Precipitación Eventos Condiciones En cada Fichero con código METAR se tiene la información de un día. No se han utilizado todos los datos de todos los días ni de todas las horas, ya que mucha de esta información no estaba disponible o simplemente había tal cantidad de ficheros que hacían muy difícil el análisis de todos los datos. Los tres objetivos de la predicción son: Predicción de temperatura a 1 hora Predicción de temperatura a 24 horas Predicción de condiciones meteorológicas (Despejado, Parcialmente Nublado, etc) a 24 horas Para la realización de esta práctica se han obtenido datos desde Julio de 1996 hasta Octubre de 2004 de dos aeropuertos de Madrid: Barajas y Cuatro Vientos. A dichos datos se les ha aplicado un tratamiento de datos que se comentará en la siguiente sección.

4 Tratamiento de datos Con el fin de poder utilizar los datos METAR, se tiene que proceder a un procesamiento de datos. Dicho procesamiento fue realizado por un programa implementado por nosotros en Java. Dicho programa saca toda la información del código METAR y lo escribe en formato arff para que pueda ser utilizado por Weka. Los datos fueron tratados de muy diversas maneras y se escribió una notación para cada tipo de previsión. Todos los atributos de las tres previsiones son iguales a excepción del último y se escriben en el siguiente orden: 1. Día Este valor puede tomar valores desde 1 a 366, en el caso de que el año sea bisiesto. La razón de utilizar esta notación y no otra como puede ser día del mes y el mes es que con una numeración global de todo el año puede ser que Weka saque relaciones y mejores resultados y sobre todo usar solo un atributo en vez de dos, con lo que la carga computacional se reduce. 2. HoraCET La Hora toma valores desde 0 hasta 23.5 horas. Se ha modificado la presentación de los datos METAR que aparecían en medidas sexagesimales y AM y PM, para que de esta manera pueda ser más fácil relacionar una hora con su hora posterior para la predicción de 1 hora más tarde. 3. TemperaturaF Esta temperatura está en grados Fahrenheit. Había muchos valores incorrectos debido a los aparatos de medida que podía estropearse o funcionar mal dando. Por lo que se optó sólo dar por validos los valores que estuviesen por encima de 70 y por debajo de 140 que son unos valores más aceptables. 4. Nivel_de_Rocío Muchos de estos valores eran claramente erróneos, como la aparición del valor Por lo que después de ver la distribución total de estos datos y eliminando el valor 9999 se comprobó que la mayoría de los datos estaban en una franja muy delimitada por lo que se limitó los valores del rocío al rango 70 a 65 (el índice inferior podría ser mucho más grande pero se dejó para ver si se conseguían mejores resultados). 5. Humedad Estos son otros datos con muchos errores. Muchos valores no estaban disponibles (N/A) o eran totalmente erróneos (-9999). Además hay que añadir que para el año 2004 aparecen algunos valores expresados en porcentaje, con lo que no pueden usarse con el resto de datos de Humedad.

5 6. PresionIn Estos datos se tratan ajustándolos a un rango de valores normal, ya que ciertos valores eran muy exagerados o incluso totalmente erróneos. Se pusieron como desconocidos los valores no disponibles (N/A), el valor incorrecto 9999 y los valores fuera del rango que consideramos valores normales (entre 15 y 45 pulgadas). 7. Visibilidad Se quitaron los ya mencionados errores incorrectos como el 9999 y se consideraron correctos los valores que estaban en el rango de 70 a 140(el índice inferior podría ser mucho más grande pero se dejó para ver si se conseguían mejores resultados). 8. Dirección del viento Este atributo se transformó en dirección en grados y no en el nombre de las direcciones. Los valores METAR encontrados eran Este, ENE, NE, NNE, Norte, NNO, NO, ONO, Oeste, OSO, SO, SSO, Sur, SSE, SE, ESE, Calm y Variable, estos dos último se tomaban como desconocidos ya que no se podía determinar la dirección. Los demás posibles valores dividían a la circunferencia de 360 grados en 12 direcciones siendo el este 0 y 360º y el resto son valores que se van incrementando 22.5º. 9. Velocidad_del viento Estos valores son tratados de manera que cuando aparecen valores no numéricos como Calm (0, no hay velocidad) no produzcan error. También se quita el valor erróneo 9999 y como pueden aparecer valores excesivos (grandes ventiscas) que pueden perjudicar el problema, se limita la velocidad al rango entre 0 y 78 millas por hora. 10. Ráfaga El tratamiento de los datos es muy similar al caso de la velocidad del viento, pero la principal diferencia es que la cantidad de este tipo de datos es mucho menor. 11. Hechos Este atributo indica un hecho concreto que sucede, como que llueva o nieve. Es distinto al atributo condición: hay muchos menos tipos de hechos y además hay gran cantidad de valores desconocidos. Los hechos utilizados son Lluvia, Tormenta, Lluvia-Tormenta, Lluvia-Nieve, Nieve, Bruma, Tornado, Bruma- Lluvia, Granizo-Tormenta, Lluvia-Granizo-Tormenta, Granizo y Nieve-Granizo.

6 12. Condiciones En todos los archivos se han encontrado un número muy cercano a 50 posibles condiciones. Para simplificar el modelo, se ha reducido el número de condiciones tomando las siguientes simplificaciones: Despejado, Nubes Dispersas => Despejado Nube en Embudo, Parcialmente Nublado, Nublado, Altamente Nublado => Nublado Bancos de Bruma, Bruma Ligera, Bruma Leve, Bruma, Bruma Helada Leve => Bruma Lluvias, Llovizna Leve, Llovizna, Llovizna Abundante, Llovizna Helada Leve, Lluvia Helada Leve, Lluvia Leve, Lluvia, Abundantes Lluvias, Fuertes Lluvias => Lluvia Tormenta Leve, Tormentas Leves y Lluvia, Tormenta, Tormentas y Lluvia, Fuertes Tormentas y Lluvia, Tormentas Leves con Granizo, Tormentas con Granizo => Tormenta Arena, Remolino de Polvo, Nubes de Polvo, Nubes Bajas de Polvo =>Nubes-de-Polvo Leve Caída de Granizo Pequeño, Caídas de Granizo, Granizo Pequeño, Granizo Leve => Granizo Partículas de Nieve, Caídas de Nieve, Nevada Leve, Nieve, Abundante Nieve => Nieve Niebla, Abundante Niebla, Niebla Leve, Neblina => Niebla Humo => Humo Estas agrupaciones no son casuales. El hecho de que se agrupen tanto es que muchas condiciones aparecen muy poco, incluso sólo 1 vez. El hecho de que por ejemplo se agrupen Despejado y Nubes dispersas es que la diferenciación entre ambos suceso y a su vez la distinción de Parcialmente Nublado es muy difícil ya que varían muy poco las condiciones. Por eso se trata de conseguir un menor error reduciendo el número de condiciones. 13. Temperatura de una hora antes Está variable fue introducida para obtener una mejor predicción de la temperatura, ya que es muy probable que si la temperatura de antes y la de ahora son iguales la de la siguiente hora sería muy parecida. No se introdujeron más temperaturas de horas más atrasadas porque no consideramos que mejoraran en demasía el resultado. Además, haciendo un análisis de resultados esta variable no aparecía como una de las variables más determinantes. 14. Temperatura del día anterior a la misma hora Con esta variable pensamos que serviría tanto para estimar la temperatura dentro de una hora como la del día siguiente, ya que tal vez se podría ver una relación entre la hora del día anterior y la del actual y con ello sacar la temperatura del día siguiente.

7 15. Condiciones del día anterior a la misma hora La justificación de la inclusión es similar a la de la variable anterior, conseguir averiguar la posible relación entre las condiciones del día anterior y la del actual, para extrapolar y obtener las del siguiente. Hay un atributo número 16 que es distinto dependiendo de la predicción que queramos hacer: 1) Temperatura en 1 hora Se añade una columna que indica la temperatura en la hora siguiente. Esta será la variable que queremos utilizar para predecir el tiempo al cabo de 1 hora. Para realizar dicha predicción, se eliminaran todos los datos que no conozcan temperatura actual o temperatura dentro de una hora. 2) Temperatura en 24 hora Se añade una columna que indica la temperatura que habrá el día siguiente a la misma hora. Esta será la variable que queremos utilizar para predecir el tiempo al cabo de 24 horas. Para realizar dicha predicción, se eliminaran todos los datos que no conozcan temperatura actual o temperatura del día siguiente a la misma hora. 3) Condiciones en 24 horas Se añade una columna con las condiciones del día siguiente a la misma hora. Esta será la variable que queremos utilizar para predecir las condiciones al cabo de 24 horas. Para realizar dicha predicción, se eliminaran todos los datos que no conozcan condición actual o la condición del día siguiente a la misma hora. Este atributo aparecerá en cada uno de los 3 ficheros que se generan, según que se quiere predecir, temperatura de la hora siguiente, del día siguiente o condiciones del día siguiente. Además de este tratamiento, los datos se han muestreado de tal forma que para el conjunto de entrenamiento (ficheros desde 1996 a 2003) se obtuvieron alrededor de 7000 instancias y para el de Test (2004) unas 700. es decir, el 10% del conjunto de entrenamiento. Esto se ha hecho ya que si el fichero es demasiado grande no hay suficiente memoria para poder utilizar la herramienta Weka correctamente. No se ha descartado ninguna variable ya que al aplicar distintos algoritmos de selección de atributos obtuvimos resultados distintos y preferimos tener un poco de redundancia a quizá perder información. De todas formas realizamos unos análisis de atributos y obtuvimos los siguientes resultados:

8 Para las condiciones del día siguiente con CfsSubsetEval y como método de búsqueda BestFirst o GreedyStepwise se obtuvieron que los atributos más importantes eran: día Humedad PresionIn Visibilidad_MPH Velocidad_vientoMPH Conditions TemperaturaF1HAntes Conditions1DAntes Para estimar la temperatura de la hora siguiente y la del día siguiente usando los mismos métodos, obtuvimos que la variable determinante era la temperatura actual.

9 Predicciones Predicción de las condiciones a 24 horas Para predecir las condiciones hemos usado todos las clasificadores que nos permitía usar Weka. Para ello hemos aplicado uno o varios algoritmos de cada tipo para ver con cuales obteníamos mejores resultados. Rules Este es el clasificador del que más algoritmos hemos probado. Este tipo de clasificadores crea un conjunto de reglas a partir de las cuales tratan de predecir cuáles serán las condiciones del día siguiente. Los resultados varían según que algoritmo se utilice. A continuación se muestran los distintos algoritmos: Conjunctive Rule Esta clase implementa un algoritmo crea una regla conjuntiva sencilla. Dicha regla consiste en realizar la conjunción (AND) de los antecedentes del atributo a predecir mediante una clasificación (si hubiera sido numérica la variable hubiera sido una regresión) El resumen del resultado se muestra a continuación Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % En estos resultados se puede observar que de las 713 correspondientes al año 2004 del fichero de Test, 441 han sido correctamente clasificadas y 272 no lo han sido, lo que nos da un error ERROR #aciertos 272 = = 0, ,14866% #aciertos + #fallos 713 == Como se puede ver en la matriz de confusión, el principal error aparece cuando intenta decidir si está nublado o está despejado.

10 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Decisión Table Crea una tabla de decisión para clasificar las condiciones. Los resultados son los siguientes: Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 A partir de los resultados se obtiene el siguiente error: ERROR #aciertos 260 = = 0, ,5682 % #aciertos + #fallos 711 == La matriz de confusión, como en el caso anterior confunde en gran medida la condición nublado y despejado. El error en este caso es menor porque diferencia mucho mejor la condición despejado con respecto a nublado, pero no así nublado de despejado. Además el número de sucesos despejado es mucho mayor por lo que el algoritmo ante la duda opta por el que más instancias hay. === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo

11 Part Crea una lista de decisión PART. Utiliza divide y vencerás. Construye un árbol de decisión parcial en cada iteración y convierte la mejor hoja de este árbol en regla. Los resultados son Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Con los que se obtiene el error ERROR #aciertos 256 = = 0,359 35,9% #aciertos + #fallos 713 == Observando el error se ve que es menor a todos los demás porque aunque confunde más despejados que con el algoritmo anterior acierta más nublados, es decir aunque confunde más el caso despejado, sólo confunde unos pocos, clasifica como nublados casi el doble más que antes. === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Para este tipo de clasificadores no se comentan más algoritmos, sí se destaca que el uso del algoritmo ZeroR no sería adecuado si no fuese Madrid una zona donde la mayor parte del año está despejado, ya que este algoritmo mira cual es la media o la moda de los resultados y toma como predicción ese caso. Para las condiciones clasifica toda instancia como despejado con lo que al haber mayor numero de despejados da que el error es menor que los tres algoritmos anteriores ya que acierta todos los casos despejados y falla todos los demás. El error de este algoritmo es #aciertos 236 ERROR = = 0,331 == 33,1% #aciertos + #fallos 713

12 Trees Se crean árboles de decisión para predecir qué condición habrá al día siguiente. Los nodos intermedios representan atributos de los ejemplos presentados, las ramas sus posibles valores y las hojas los resultados. Hay que apuntar que debido al gran tamaño de estos árboles (ocuparían varias hojas) sólo se presentaran los que sean más pequeños y los demás es podrán observar en los ficheros resultado entregados junto con esta memoria. Se han usado tres algoritmos de este tipo J48 Este algoritmo es la implementación de Weka al algoritmo C.45, que a su vez es una extensión del algoritmo ID3. Puede rescribirse en formas de reglas IF- THEN. Los resultados son los siguientes Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 El error es ERROR #aciertos 252 = = 0, ,44% #aciertos + #fallos 711 == Fijándonos en la matriz de confusión se puede observar que identifica la mayoría de los casos despejados aunque sigue fallando bastante en los casos nublados. === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo

13 DecisionStump Este algoritmo se basa en coger un atributo y con el elegir el resultado. Los datos desconocidos se consideran otra situación. En este caso sólo se fija en el atributo Visibilidad. Según un valor de esta decide si es nublado o despejado (las 2 condiciones mayoritarias) Decision Stump Classifications Visibilidad_MPH <= 6.3 : Nublado Visibilidad_MPH > 6.3 : Despejado Visibilidad_MPH is missing : Despejado Si miramos los resultados se obtienen que son los de menor error. Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 El error obtenido es 31,5% que es el menor obtenido por el hecho de que trata de diferenciar los dos tipos de sucesos que más ejemplos tienen ERROR #aciertos 224 = = 0,315 31,5% #aciertos + #fallos 711 == === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Al igual de antes se vuelve a apuntar que otro algoritmo, User Classifier, tiene un error muy bajo gracias al gran numero de condiciones despejado que hay entre las instancias.

14 Meta Muchos de estos algoritmos dependen del clasificador que se utilicen. Si se utiliza un clasificador que de buenos resultados, el algoritmo de este tipo también dará buenos resultados. De este tipo de algoritmos sólo se comentará se comentara el Filtered Classifier usando Decisión Table adjuntando los demás modelos y resultados probados. === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 ERROR #aciertos 243 = = 0, ,2% #aciertos + #fallos 711 == === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Como se puede ver los resultados son ligeramente mejores que con el clasificador Decisión Table.

15 Lazy Los algoritmos utilizados son los que se basan en los K vecinos más próximos. Se ha jugado con el número de vecinos hasta obtener la mejor solución. La mejor solución que hemos obtenido ha sido para K=17 y distancia 1/w (no se utilizó K mayores por el gran tiempo que tardaban en ejecutarse) Los resultados obtenidos son los que se muestran a continuación: Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Se puede observar de la matriz de confusión que sólo identifica despejado y nublados identificando gran numero de ellos. ERROR #aciertos 250 = = 0, ,16% #aciertos + #fallos 711 == Functions Dentro de este tipo se encuentran los métodos para hacer regresiones lineales (que servirán para el caso de predecir temperatura, no en el de predecir condiciones) y redes de neuronas como pueden ser el perceptron y sus variantes y las redes de neuronas base radial. Estas últimas han sido elegidas porque son más rápidas que las otras y por que son más fácilmente configurables al sólo la capa oculta. Pero hay que tener cuidado con el número de neuronas elegido ya que la red puede sobreaprender y el error sería muy elevado ya que la red se habría aprendido los sucesos de entrenamiento y no sería capaz de generalizar que es nuestro objetivo.

16 Perceptron Multicapa El perceptron multicapa es una red neuronal con varias capas ocultas de neuronas que utiliza como función de aprendizaje el backpropagation o propagación hacia atrás. Es muy útil para resolución de problemas lineales y para resolver problemas de más complejidad lo que hay que hacer es aumentar su número de neuronas y de capas (sin que llegue a sobreaprender) Los resultados son: Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 El error es el siguiente: #aciertos 252 ERROR = = 0,35443 == 35,443% #aciertos + #fallos 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Sólo discrimina entre despejado y nublado porque no hay el número suficiente de ocurrencias de las otras condiciones que permiten que la red aprenda esa condición. Red de Base Radial Como se ha comentado antes estas redes son muy rápidas y se usan para resolver problemas no lineales. Como no sabemos si la relación de la variable condiciones del día después con el resto de variables es lineal aplicamos está red. Hemos utilizado 7 clústeres. Los resultados son:

17 === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo El error es ERROR #aciertos 227 = = 0, ,9268% #aciertos + #fallos 711 == Se puede observar que sólo discrimina entre nublado y despejado, pero casi todo es clasificado como despejado, de ahí que el error sea bajo. Redes bayesianas El uso de estas redes es adecuado ya que estas redes son grafos acíclicos y cada nodo representa una variable, como puede ser la temperatura, la humedad Los arcos que unen variables indican influencia causal mientras que la ausencia de ellos indica independencia a priori (puede ser que se supongan independientes y más tarde se comprueben que no lo son y haya que definir un arco) Son redes probabilísticas con lo que va a afectar la ocurrencia de las condiciones. Si no conocen el dato de algún nodo lo estiman con distintos algoritmos. Red Bayesiana Es una red bayesiana normal. Los resultados se muestran a continuación: === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711

18 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo El error es ERROR #aciertos 273 = = 0, ,39% #aciertos + #fallos 711 == Como se observa en la matriz de confusión, el error es muy parecido a los anteriores porque casi todas las instancias están clasificadas como despejadas, aunque al contrario que en otros casos hay más condiciones que sólo las dos mayoritarias (aunque las clasifique mal) NaiveBayesian Esta es una red bayesiana más simple. Coge los estimadores basándose en el análisis del conjunto de entrenamiento. === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits 0.17 bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo El error es muy malo ya que no se limita como anteriores algoritmos a identificar solamente nublado y despejado sino también otras condiciones como es la lluvia. El problema es que lo hace mal y comete muchos más errores.

19 Predicción de la temperatura de la hora siguiente y del día siguiente Para predecir la temperatura hemos utilizado casi la totalidad de métodos que Weka nos permitía. Se han utilizado varios algoritmos de cada tipo, excepto de las redes Bayesianas ya que estas se utilizan para clasificar y no para predecir un número real, para ver con cuales obteníamos mejores resultados. Functions Dentro de este tipo se encuentran los métodos para hacer regresiones lineales (que servirán para el caso de predecir temperatura, no en el de predecir condiciones) y redes de neuronas como pueden ser el perceptron y sus variantes y las redes de neuronas base radial. Estas últimas han sido elegidas porque son más rápidas que las otras y por que son más fácilmente configurables al sólo la capa oculta. Pero hay que tener cuidado con el número de neuronas elegido ya que la red puede sobreaprender y el error sería muy elevado ya que la red se habría aprendido los sucesos de entrenamiento y no sería capaz de generalizar que es nuestro objetivo. LeastMedSq Implementa una regresión lineal least median squared para calcular los coeficientes de la función, el resumen del resultado es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,742 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,870 % Linear regresion Implementa una regresión lineal para calcular los coeficientes de la función, el resumen del resultado es el siguiente:

20 Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,742 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,807 % Multilayer Perceptron Es una red neuronal que usa propagación hacia atrás para entrenar, el resumen del resultado es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,74 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,87 %

21 3.2 Lazy: Los algoritmos utilizados son los que se basan en los K vecinos más próximos. IB1 Clasifica por el método del vecino más cercano, el resumen del resultado es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 13,93 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 13,68 % IBK Clasifica por el método de los k vecinos más cercanos, el resumen del resultado es el siguiente, por ejemplo, para 67 vecinos más próximos hemos obtenido estos resultados: Correlation coefficient Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 734 ERROR = media( abs(tpredicha-treal)/treal )*100 = 6,23%

22 -Para predecir la temperatura del día siguiente: KSTAR Correlation coefficient Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 7,69% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 3,69% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 7,43% LWL Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 11,64%

23 Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 11,99% META: Muchos de estos algoritmos dependen del clasificador que se utilicen. Si se utiliza un clasificador que de buenos resultados, el algoritmo de este tipo también dará buenos resultados. Additive Regresión: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,84% Correlation coefficient Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 7,34%

24 Attribute Selected Clasifier: Correlation coefficient 0 Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06% Bagging: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,33% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,40%

25 CV Parameter Selection: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06% Filtered Classifier: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,70% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,07%

26 Multischeme: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,07% Regresion by Discretization: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 3,80% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 6,95%

27 Stacking: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06% Vote: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06%

28 TREES: Se crean árboles de decisión para predecir qué condición habrá al día siguiente. Los nodos intermedios representan atributos de los ejemplos presentados, las ramas sus posibles valores y las hojas los resultados. Hay que apuntar que debido al gran tamaño de estos árboles (ocuparían varias hojas) sólo se presentaran los que sean más pequeños y los demás es podrán observar en los ficheros resultado entregados junto con esta memoria. Se han usado tres algoritmos de este tipo Decision Stump: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 12,51% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % M5P: ERROR = media( abs(tpredicha-treal)/treal )*100 = 13,09% Con este árbol se han obtenido buenos resultados Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,33%

29 Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,79% La forma de este árbol para calcular la temperatura del día siguiente sería: REP Tree: Consiste en un árbol que aprenden mediante decisión rápida, el resumen de resultados es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,55%

30 RULES: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,96% Este tipo de clasificadores crea un conjunto de reglas a partir de las cuales tratan de predecir cual será la temperatura. Los resultados varían según que algoritmo se utilice. A continuación se muestran los distintos algoritmos: ZeroR: Consiste simplemente en un decisor 0-R, el resultado ha sido el siguiente: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06%

31 M5 Rules: Genera una lista de decisión para problemas de regresión usando separación y conquista. El resumen de los resultados es el siguiente: Correlation coefficient Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,31% Correlation coefficient Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Decision Table: ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,75% Crea una tabla de decisión para clasificar las condiciones. Los resultados son los siguientes: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 3,64% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 6,43%

32 Conjunctive Rule: Esta clase implementa un algoritmo crea una regla conjuntiva sencilla. Dicha regla consiste en realizar la conjunción (AND) de los antecedentes del atributo a predecir mediante una regresión. El resumen del resultado se muestra a continuación Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 12,51% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 12,90%

33 Cuadro con errores obtenidos Temperaturas Función 1 hora 24 horas LeastMedSq 2,74 5,87% Linear Regresion 2,74 5,87% Multilayer Perceptron 2,74 5,87% IB1 13,93 13,68% IBK 6,23 7,69% KStar 3,69 7,43% LWL 11,64 11,99% Additive Regresion 5,84 7,34% Attribute Selecte Clasifier 21,71 22,06% Baggins 2,33 5,4% CVParameter selection 21,71 22,06% Filtered Clasifier 21,71 22,06% Multischeme 21,71 22,06% Regresion by discretization 3,80 6,95% Staking 21,71 22,06% Vote 21,71 22,06% Decisión Stump 12,51 13,09% M5P 2,33 5,79% REP Tree 2,55 5,96% ZeroR 21,71 22,06% M5 Rules 2,31 5,75% Decisión Table 3,64 6,43% Conjunctive Rule 12,51 12,90% Condiciones: Conjuntive Rule 38,14% Tabla de Decisión 36,56% Part 35,90% ZeroR 33,1% J48 35,443% Decisión Stump 31,5% Filtered Classifier (con decision table) 34,17% IBK (K=7) 35,16% Perceptron multicapa 35,443% Red de Base Radial 31,92% Red Bayesiana 38,39% Naive Bayesian 40,08%

INGENIERÍA DE TELECOMUNICACIÓN INTELIGENCIA EN REDES DE ORDENADORES

INGENIERÍA DE TELECOMUNICACIÓN INTELIGENCIA EN REDES DE ORDENADORES INGENIERÍA DE TELECOMUNICACIÓN INTELIGENCIA EN REDES DE ORDENADORES Jaime de Uriarte de Antonio 100021498 Olivia García Robas 100021435 ÍNDICE Página 1. Introducción 3 2. Tratamiento de datos 4 3. Predicciones..

Más detalles

Inteligencia en Redes de Comunicaciones

Inteligencia en Redes de Comunicaciones Inteligencia en Redes de Comunicaciones Predicción meteorológica Aitor Mendaza Ormaza 100021542 INDICE Introducción 1 Tratamiento de Datos.5 Resultados y análisis 7 Introducción: El objetivo de esta práctica

Más detalles

PREDICCIÓN METEOROLÓGICA

PREDICCIÓN METEOROLÓGICA PRÁCTICA FINAL DE INTELIGENCIA EN REDES DE ORDENADORES PREDICCIÓN METEOROLÓGICA 5º INGENIERIA DE TELECOMUNICACIÓN Julio Alberto Polo Fernández 100029757 Raúl Muñoz Martínez 100029571 INDICE 1) Introducción

Más detalles

PREDICCIÓN METEOROLÓGICA

PREDICCIÓN METEOROLÓGICA PREDICCIÓN METEOROLÓGICA INTELIGENCIA EN REDES DE COMUNICACIONES INTRODUCCIÓN En esta práctica se pretende obtener un sistema real de predicción meteorológica utilizando técnicas de aprendizaje automático

Más detalles

Predicción meteorológica

Predicción meteorológica Predicción meteorológica Trabajo hecho por: Roberto García Sanchez Pablo Casas Muñoz Qué es WEKA? Acrónimo de Waikate Environment for Knowledge Analisis Es un entorno para experimentación de análisis de

Más detalles

SISTEMAS INTELIGENTES

SISTEMAS INTELIGENTES SISTEMAS INTELIGENTES T8: Aprendizaje basado en instancias www.aic.uniovi.es/ssii Índice Aprendizaje basado en instancias Métricas NN Vecino más próximo: Regiones de Voronoi El parámetro K Problemas de

Más detalles

Práctica Final: Predicción Metereológica en Weka.

Práctica Final: Predicción Metereológica en Weka. INTELIGENCIA EN REDES DE COMUNICACIONES Práctica Final: Predicción Metereológica en Weka. Ramón Fernández Lorenzana 100025293 Manuel Asenjo Chacón 100050872 5º Ingeniería de Telecomunicación 1.PREPROCESADO

Más detalles

Minería de Datos. Predicción Meteorológica

Minería de Datos. Predicción Meteorológica Minería de Datos Jesús Sáez Gómez Escalonilla Inteligencia en Redes de Comunicación Ing. Telecomunicación Página 1 de 25 1. Introducción El objetivo de la práctica es el desarrollo de un sistema real de

Más detalles

TRABAJO FIN DE ASIGNATURA

TRABAJO FIN DE ASIGNATURA INTELIGENCIA EN REDES DE COMUNICACIONES TRABAJO FIN DE ASIGNATURA Luis Javier Duque Cuadrado 1 Breve descripción de los algoritmos elegidos 1.1 Clasificación a) Árboles de decisión de un nivel (decision

Más detalles

2.5. Asimetría y apuntamiento

2.5. Asimetría y apuntamiento 2.5. ASIMETRÍA Y APUNTAMIENTO 59 variable Z = X x S (2.9) de media z = 0 y desviación típica S Z = 1, que denominamos variable tipificada. Esta nueva variable carece de unidades y permite hacer comparables

Más detalles

3. Métodos clásicos de optimización lineal

3. Métodos clásicos de optimización lineal 3. Métodos clásicos de optimización lineal Uso del método Simplex El problema que pretende resolverse es un problema de optimización lineal sujeto a restricciones. Para el modelo construido para el problema

Más detalles

MÉTODOS DE APRENDIZAJE INDUCTIVO

MÉTODOS DE APRENDIZAJE INDUCTIVO Aprendizaje Automático y Data Mining Bloque III MÉTODOS DE ARENDIZAJE INDUCTIVO 1 Índice Clasificación de métodos: Lazy Eager Árboles de decisión. Listas de reglas. Aprendizaje Bayesiano. Redes neuronales

Más detalles

TEMA 5. LA PARTE GASEOSA DE LA TIERRA

TEMA 5. LA PARTE GASEOSA DE LA TIERRA UNIDAD DIDÁCTICA ADAPTADA CIENCIAS DE LA NATURALEZA 1º ESO TEMA 5. LA PARTE GASEOSA DE LA TIERRA ÍNDICE 1.- QUÉ ES LA ATMÓSFERA? 2.- QUÉ GASES HAY EN LA ATMÓSFERA? 3.- ESTRUCTURA DE LA ATMÓSFERA. 4.- LA

Más detalles

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -

Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 - Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos - Sesión 11 - Juan Alfonso Lara Torralbo 1 Índice de contenidos Actividad. Resolución manual de clasificación bayesiana

Más detalles

APLICACIÓN DE ÁRBOLES BINARIOS

APLICACIÓN DE ÁRBOLES BINARIOS PRÁCTICA Nº 6: 2 sesiones (del 22 al 31 de Mayo de 2002) APLICACIÓN DE ÁRBOLES BINARIOS A LA COMPRESIÓN DE FICHEROS DE TEXTO MEDIANTE LA UTILIZACIÓN DE LOS CÓDIGOS DE HUFFMAN 0.- OBJETIVOS El objetivo

Más detalles

Estructuras de control

Estructuras de control Estructuras de control El flujo secuencial de acciones en un algoritmo puede ser alterado por medio de las denominadas estructuras de control, las cuales se resumen a continuación: Estructuras de selección

Más detalles

PROGRAMACIÓN LINEAL ENTERA

PROGRAMACIÓN LINEAL ENTERA PROGRAMACIÓN LINEAL ENTERA Programación lineal: hipótesis de perfecta divisibilidad Así pues decimos que un problema es de programación lineal entera, cuando prescindiendo de las condiciones de integridad,

Más detalles

CLIMATOLOGÍA AERONÁUTICA (2000-2010) AEROPUERTO INTERNACIONAL TOBÍAS BOLAÑOS PALMA (COSTA RICA)

CLIMATOLOGÍA AERONÁUTICA (2000-2010) AEROPUERTO INTERNACIONAL TOBÍAS BOLAÑOS PALMA (COSTA RICA) CLIMATOLOGÍA AERONÁUTICA (2000-2010) AEROPUERTO INTERNACIONAL TOBÍAS BOLAÑOS PALMA (COSTA RICA) W. Stolz España J. Rojas Ureña Gabriela Chinchilla R. 2012 CARACTERÍSTICAS DEL AEROPUERTO El Aeropuerto Internacional

Más detalles

Práctica 2 Estadística Descriptiva

Práctica 2 Estadística Descriptiva Práctica 2 Estadística Descriptiva Contenido Introducción...................................... 1 Tablas de frecuencias................................. 2 Medidas de centralización, dispersión y forma...................

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur MODELOS: ÁRBOLES DE DECISIÓN Y REGLAS Datos de entrada 91 71 75 81 Nublado 90 72 Nublado 70 75 80 75 70

Más detalles

Tema 3. Medidas de tendencia central Ejercicios resueltos 1

Tema 3. Medidas de tendencia central Ejercicios resueltos 1 Tema 3. Medidas de tendencia central Ejercicios resueltos 1 Ejercicio resuelto 3.1 La demanda de cierto artículo en 48 días fue 1, 4, 1, 0, 2, 1, 1, 3, 2, 1, 1, 0, 3, 2, 4, 3, 4, 1, 2, 1, 1, 2, 2, 2, 1,

Más detalles

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO Anejo Análisis estadístico de temperaturas Análisis estadístico de temperaturas - 411 - D.1 INTRODUCCIÓN Y OBJETIVO El presente anejo tiene por objeto hacer un análisis estadístico de los registros térmicos

Más detalles

Nuestro planeta, la Tierra, está rodeado de aire. El aire está formado por diferentes tipos de gases. Algunos son:

Nuestro planeta, la Tierra, está rodeado de aire. El aire está formado por diferentes tipos de gases. Algunos son: Área Conocimiento del Medio. Adaptación de Textos. 3º EP. Libro de la Editorial Santillana, Proyecto La Casa del Saber. El aire 1 1. Cómo es el aire? Nuestro planeta, la Tierra, está rodeado de aire. El

Más detalles

Ismael Fernández Castellano Telmo Calle Facal Grupo 91

Ismael Fernández Castellano Telmo Calle Facal Grupo 91 PREDICCIÓN METEOROLÓGICA CON LA PLATAFORMA WEKA Ismael Fernández Castellano 100033034 Telmo Calle Facal 100035925 Grupo 91 1. INTRODUCCIÓN El objetivo de la práctica es desarrollar un sistema de caracterización

Más detalles

b 11 cm y la hipotenusa

b 11 cm y la hipotenusa . RESOLUCIÓN DE TRIÁNGULOS RECTÁNGULOS UNIDAD : Trigonometría II Resolver un triángulo es conocer la longitud de cada uno de sus lados y la medida de cada uno de sus ángulos. En el caso de triángulos rectángulos,

Más detalles

Elaboración de un Mapa de Contornos

Elaboración de un Mapa de Contornos Elaboración de un Mapa de Contornos Objetivo General Aprender cómo se pueden hacer a mano los mapas de contornos. Visión General El alumnado marca los datos de los centros escolares GLOBE sobre un mapa

Más detalles

Predicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte

Predicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte Predicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte Resumen En este trabajo se usó Máquinas de Vectores de Soporte (SVM, por sus siglas

Más detalles

Métodos basados en instancias. K-vecinos, variantes

Métodos basados en instancias. K-vecinos, variantes Métodos basados en instancias K-vecinos, variantes Contenido 1. Caracterización 2. K-vecinos más próximos 3. Mejoras al algoritmo básico 4. Bibliografía 2 1. Caracterización Forma más sencilla de aprendizaje:

Más detalles

Práctica 5: Clasificación con número variable de ejemplos.

Práctica 5: Clasificación con número variable de ejemplos. 5º INGENIERÍA DE TELECOMUNICACIÓN INTELIGENCIA ARTIFICIAL Y RECONOCIMIENTO DE PATRONES Práctica 5: Clasificación con número variable de ejemplos. Objetivos: Utilización de conjuntos de entrenamiento y

Más detalles

3. VARIABLES ALEATORIAS

3. VARIABLES ALEATORIAS . VARIABLES ALEATORIAS L as variables aleatorias se clasiican en discretas y continuas, dependiendo del número de valores que pueden asumir. Una variable aleatoria es discreta si sólo puede tomar una cantidad

Más detalles

Estadística Avanzada y Análisis de Datos

Estadística Avanzada y Análisis de Datos 1-1 Estadística Avanzada y Análisis de Datos Javier Gorgas y Nicolás Cardiel Curso 2006-2007 2007 Máster Interuniversitario de Astrofísica 1-2 Introducción En ciencia tenemos que tomar decisiones ( son

Más detalles

Uso de centinelas para la toma de decisiones. Esquemas y diagramas de flujo. Ejemplos resueltos. (CU00167A)

Uso de centinelas para la toma de decisiones. Esquemas y diagramas de flujo. Ejemplos resueltos. (CU00167A) aprenderaprogramar.com Uso de centinelas para la toma de decisiones. Esquemas y diagramas de flujo. Ejemplos resueltos. (CU00167A) Sección: Cursos Categoría: Curso Bases de la programación Nivel I Fecha

Más detalles

Explorando la ecuación de la recta pendiente intercepto

Explorando la ecuación de la recta pendiente intercepto Explorando la ecuación de la recta pendiente intercepto Realiza las siguientes actividades, mientras trabajas con el tutorial. 1. Los puntos que están en la misma recta se dice que son. 2. Describe el

Más detalles

GUIA PRACTICA PARA LA APLICACIÓN DE MS EXCEL TECNOLOGIA/ INFORMATICA

GUIA PRACTICA PARA LA APLICACIÓN DE MS EXCEL TECNOLOGIA/ INFORMATICA Fórmulas y funciones De la barra de menú seleccionmos la opción insertar y haciendo clic en la opción f x se desplegará el siguiente cuadro de diálogo a partir del cual escogeremos la función adecuada

Más detalles

Anexo C. Introducción a las series de potencias. Series de potencias

Anexo C. Introducción a las series de potencias. Series de potencias Anexo C Introducción a las series de potencias Este apéndice tiene como objetivo repasar los conceptos relativos a las series de potencias y al desarrollo de una función ne serie de potencias en torno

Más detalles

Representación de números enteros: el convenio complemento a dos

Representación de números enteros: el convenio complemento a dos Representación de números enteros: el convenio complemento a dos Apellidos, nombre Martí Campoy, Antonio (amarti@disca.upv.es) Departamento Centro Informàtica de Sistemes i Computadors Escola Tècnica Superior

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Declaración de variables (integer, single, double, boolean, etc.) en Visual Basic. Dim. Ejemplos. (CU00309A)

Declaración de variables (integer, single, double, boolean, etc.) en Visual Basic. Dim. Ejemplos. (CU00309A) aprenderaprogramar.com Declaración de variables (integer, single, double, boolean, etc.) en Visual Basic. Dim. Ejemplos. (CU00309A) Sección: Cursos Categoría: Curso Visual Basic Nivel I Fecha revisión:

Más detalles

Medidas de Dispersión

Medidas de Dispersión Medidas de Dispersión Revisamos la tarea de la clase pasada Distribución de Frecuencias de las distancias alcanzadas por las pelotas de golf nuevas: Dato Frecuencia 3.7 1 4.4 1 6.9 1 3.3 1 3.7 1 33.5 1

Más detalles

Relación 1. Sucesos y probabilidad. Probabilidad condicionada.

Relación 1. Sucesos y probabilidad. Probabilidad condicionada. Relación. Sucesos y probabilidad. Probabilidad condicionada.. Sean A, B y C tres sucesos cualesquiera. Determine expresiones para los siguientes sucesos: Ocurre sólo A. Ocurren A y B pero no C. c) Ocurren

Más detalles

El Método Simplex. H. R. Alvarez A., Ph. D. 1

El Método Simplex. H. R. Alvarez A., Ph. D. 1 El Método Simplex H. R. Alvarez A., Ph. D. 1 El Método Simplex Desarrollado en 1947 por George Dantzig como parte de un proyecto para el Departamento de Defensa Se basa en la propiedad de la solución esquina

Más detalles

BASES DE DATOS. En Access hay una serie de herramientas u objetos que facilitan enormemente el tratamiento de la información:

BASES DE DATOS. En Access hay una serie de herramientas u objetos que facilitan enormemente el tratamiento de la información: BASES DE DATOS Concepto de archivo o fichero. Un Fichero es un conjunto de información almacenado en los periféricos de memoria masiva de datos y que es tratado como una unidad por el sistema operativo.

Más detalles

Los números naturales

Los números naturales Los números naturales Los números naturales Los números naturales son aquellos que sirven para contar. Se suelen representar utilizando las cifras del 0 al 9. signo suma o resultado Suma: 9 + 12 = 21 sumandos

Más detalles

Distribución normal. Cajón de Ciencias. www.cajondeciencias.com. Qué es una variable estadística?

Distribución normal. Cajón de Ciencias. www.cajondeciencias.com. Qué es una variable estadística? Distribución normal Cajón de Ciencias Qué es una variable estadística? Una variable estadística es un parámetro que puede variar de manera aleatoria dentro de un rango de valores. Por ejemplo, la variable

Más detalles

Introducción a la Geometría Computacional

Introducción a la Geometría Computacional Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 8 de enero del 2013 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Introducción a la GC 8 de enero del 2013 1 / 17 1 Introducción a la Geometría Computacional

Más detalles

Los números enteros. > significa "mayor que". Ejemplo: 58 > 12 < significa "menor que". Ejemplo: 3 < 12 Cualquier número positivo siempre es mayor

Los números enteros. > significa mayor que. Ejemplo: 58 > 12 < significa menor que. Ejemplo: 3 < 12 Cualquier número positivo siempre es mayor Los números enteros Los números enteros Los números enteros son aquellos que permiten contar tanto los objetos que se tienen, como los objetos que se deben. Enteros positivos: precedidos por el signo +

Más detalles

Práctica 2: Utilización de WEKA desde la línea de comandos.

Práctica 2: Utilización de WEKA desde la línea de comandos. PROGRAMA DE DOCTORADO TECNOLOGÍAS INDUSTRIALES APLICACIONES DE LA INTELIGENCIA ARTIFICIAL EN ROBÓTICA Práctica 2: Utilización de WEKA desde la línea de comandos. Objetivos: Utilización de WEKA desde la

Más detalles

La estadística en Internet

La estadística en Internet 5 La estadística en Internet Neus Canal Díaz 5.1. Introducción Actualmente, Internet se está convirtiendo en una de las principales fuentes de información en muchas áreas, como es la investigación científica.

Más detalles

Sucesiones (páginas 511 515)

Sucesiones (páginas 511 515) A NMRE FECHA PERÍD Sucesiones (páginas 5 55) Una sucesión es una lista de números en un cierto orden. Cada número se llama término de la sucesión. En una sucesión aritmética, la diferencia entre cualquier

Más detalles

Matrices escalonadas y escalonadas reducidas

Matrices escalonadas y escalonadas reducidas Matrices escalonadas y escalonadas reducidas Objetivos. Estudiar las definiciones formales de matrices escalonadas y escalonadas reducidas. Comprender qué importancia tienen estas matrices para resolver

Más detalles

Generación de funciones lógicas mediante multiplexores

Generación de funciones lógicas mediante multiplexores Generación de funciones lógicas mediante multiplexores Apellidos, nombre Martí Campoy, Antonio (amarti@disca.upv.es) Departamento Centro Informática de Sistemas y Computadores Universidad Politécnica de

Más detalles

UNIDAD 3 FUNCIONES, FÓRMULAS Y MANIPULACIONES

UNIDAD 3 FUNCIONES, FÓRMULAS Y MANIPULACIONES UNIDAD 3 FUNCIONES, FÓRMULAS Y MANIPULACIONES CURSO: LibreOffice calc 1 Introducción y Objetivos Ya sabemos introducir datos y darles formato para que nuestros datos se representen correctamente, pero

Más detalles

Representación de números enteros: el convenio complemento a uno

Representación de números enteros: el convenio complemento a uno Representación de números enteros: el convenio complemento a uno Apellidos, nombre Martí Campoy, Antonio (amarti@disca.upv.es) Departamento Centro Informàtica de Sistemes i Computadors Escola Tècnica Superior

Más detalles

Arbol de Decisiones-Investigación de Operaciones II

Arbol de Decisiones-Investigación de Operaciones II Árbol de Decisiones De forma más concreta, refiriéndonos al ámbito empresarial, podemos decir que los árboles de decisión son diagramas de decisiones secuenciales nos muestran sus posibles resultados.

Más detalles

Práctica 1: Introducción a SPSS 1

Práctica 1: Introducción a SPSS 1 Estadística Aplicada Curso 2010/2011 Diplomatura en Nutrición Humana y Dietética Práctica 1: Introducción a SPSS 1 Este programa estadístico está organizado en dos bloques: el editor de datos y el visor

Más detalles

Práctica 2 Métodos de búsqueda para funciones de una variable

Práctica 2 Métodos de búsqueda para funciones de una variable Práctica 2 Métodos de búsqueda para funciones de una variable Introducción Definición 1. Una función real f se dice que es fuertemente cuasiconvexa en el intervalo (a, b) si para cada par de puntos x 1,

Más detalles

CAPÍTULO 1. 1.1 Introducción

CAPÍTULO 1. 1.1 Introducción CAPÍTULO 1 1.1 Introducción El Simulador Internacional de Negocios de la Universidad Carnegie Mellon, es una herramienta que da a los estudiantes la oportunidad de pensar y actuar como administradores

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Sistemas de ecuaciones lineales Este tema resulta fundamental en la mayoría de las disciplinas, ya que son muchos los problemas científicos y de la vida cotidiana que requieren resolver simultáneamente

Más detalles

Combinación Lineal. Departamento de Matemáticas, CCIR/ITESM. 10 de enero de 2011

Combinación Lineal. Departamento de Matemáticas, CCIR/ITESM. 10 de enero de 2011 Combinación Lineal Departamento de Matemáticas, CCIR/ITESM 10 de enero de 011 Índice.1. Introducción............................................... 1.. Combinación lineal entre vectores...................................

Más detalles

METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD

METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD Análisis de sensibilidad con la tabla simplex El análisis de sensibilidad para programas lineales implica el cálculo de intervalos para los coeficientes

Más detalles

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur

Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur EVALUACIÓN Evaluación: entrenamiento y test Una vez obtenido el conocimiento es necesario validarlo para

Más detalles

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5

Inteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5 Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función

Más detalles

APRENDIZAJE BASADO EN INSTANCIAS. Eduardo Morales y Jesús González

APRENDIZAJE BASADO EN INSTANCIAS. Eduardo Morales y Jesús González APRENDIZAJE BASADO EN INSTANCIAS Eduardo Morales y Jesús González Aprendizaje basado en Instancias 2 Diferente al tipo de aprendizaje que hemos visto Se almacenan los ejemplos de entrenamiento Para clasificar

Más detalles

DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL

DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL 3.1 INTRODUCCIÓN Como ya sabes, una distribución de probabilidad es un modelo matemático que nos ayuda a explicar los

Más detalles

Práctica 3. CÁLCULO DE LA FUNCIÓN SENO UTILIZANDO UN DESARROLLO EN SERIE

Práctica 3. CÁLCULO DE LA FUNCIÓN SENO UTILIZANDO UN DESARROLLO EN SERIE PROGRAMACIÓN (EUI). Curso 2001-2002 Práctica 3. CÁLCULO DE LA FUNCIÓN SENO UTILIZANDO UN DESARROLLO EN SERIE F. Marqués y N. Prieto Índice General 1 Introducción 1 2 El problema 1 2.1 Desarrollo en serie

Más detalles

Definiciones Diseño de Experimentos: Diseño del Experimento: Replicación o Repetición:

Definiciones Diseño de Experimentos: Diseño del Experimento: Replicación o Repetición: Definiciones Diseño de Experimentos: La experimentación es una técnica utilizada para encontrar el comportamiento de una variable a partir de diferentes combinaciones de factores o variables de entrada

Más detalles

TEMA 2: EL INTERÉS SIMPLE

TEMA 2: EL INTERÉS SIMPLE TEMA 2: EL INTERÉS SIMPLE 1.- CAPITALIZACIÓN SIMPLE 1.1.- CÁLCULO DEL INTERÉS: Recibe el nombre de capitalización simple la ley financiera según la cual los intereses de cada periodo de capitalización

Más detalles

Estadística II Tema 4. Regresión lineal simple. Curso 2010/11

Estadística II Tema 4. Regresión lineal simple. Curso 2010/11 Estadística II Tema 4. Regresión lineal simple Curso 010/11 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores

Más detalles

Sistemas de Ecuaciones Lineales

Sistemas de Ecuaciones Lineales Sistemas de Ecuaciones Lineales 1 Sistemas de ecuaciones y matrices Definición 1 Una ecuación lineal en las variables x 1, x 2,..., x n es una ecuación de la forma con a 1, a 2... y b números reales. a

Más detalles

3. CREAR FORMULARIOS 3.1. CREAR FORMULARIOS CREAR UN FORMULARIO CON EL ASISTENTE PARA FORMULARIOS UNIDAD 3- CREAR FORMULARIOS

3. CREAR FORMULARIOS 3.1. CREAR FORMULARIOS CREAR UN FORMULARIO CON EL ASISTENTE PARA FORMULARIOS UNIDAD 3- CREAR FORMULARIOS 3. CREAR FORMULARIOS Los formularios sirven como interfaz de usuario de una base de datos en Access, simplificando el modo de navegación entre los objetos y las características que define y organizan las

Más detalles

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL

Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL En esta clase se presenta un método de inducción de modelos numéricos de regresión a partir de datos. En el tema de técnicas clásicas se presentó la

Más detalles

TEMA 11. LA FIABILIDAD DE LOS TESTS

TEMA 11. LA FIABILIDAD DE LOS TESTS TEMA 11. LA FIABILIDAD DE LOS TESTS 11.1. Métodos empíricos para estimar el coeficiente de Fiabilidad 11.2. Factores que afectan al Coeficiente de Fiabilidad 11.3. Interpretación del Coeficiente de Fiabilidad

Más detalles

INTERPRETACIÓN DE IMÁGENES DE RADARES METEOROLÓGICOS. Juan Manuel Sancho Avila, M.Carmen Romero Palomino

INTERPRETACIÓN DE IMÁGENES DE RADARES METEOROLÓGICOS. Juan Manuel Sancho Avila, M.Carmen Romero Palomino INTERPRETACIÓN DE IMÁGENES DE RADARES METEOROLÓGICOS Juan Manuel Sancho Avila, M.Carmen Romero Palomino La fiabilidad de las predicciones del tiempo a corto y medio plazo (para mañana y los próximos días)

Más detalles

Construcción de una línea perpendicular, dado un punto y una línea. 1. Dibuja una línea horizontal y un punto por encima de esa línea.

Construcción de una línea perpendicular, dado un punto y una línea. 1. Dibuja una línea horizontal y un punto por encima de esa línea. Materia: Matemática de Séptimo Tema: Rectas Perpendiculares Qué piensas cuando te dicen que dos líneas forman en un ángulo recto? Qué terminología usarías para describir a estas líneas? Después de revisar

Más detalles

Universidad Tec Milenio: Profesional IO04001 Investigación de Operaciones I. Tema # 6. revisado

Universidad Tec Milenio: Profesional IO04001 Investigación de Operaciones I. Tema # 6. revisado IO04001 Investigación de Operaciones I Tema # 6 Introducción al método simplex matricial o revisado Objetivos de aprendizaje Al finalizar el tema serás capaz de: Emplear el Método simplex Matricial para

Más detalles

PRUEBA DE NIVEL DE ACCES

PRUEBA DE NIVEL DE ACCES PRUEBA DE NIVEL DE ACCES NOMBRE Y APELLIDOS:... 1. Microsoft Access es: Una base de datos relacional. Una base de datos no relacional. Una base de datos documental. Ninguna de las afirmaciones es correcta.

Más detalles

TEMA 4: EL TIEMPO Y EL CLIMA

TEMA 4: EL TIEMPO Y EL CLIMA TEMA 4: EL TIEMPO Y EL CLIMA 1. LA ATMÓSFERA La atmósfera es la capa de gases que envuelve a la Tierra. La atmósfera está formada por dos gases: El nitrógeno El oxígeno. La atmósfera se divide en cinco

Más detalles

Tablas Hash y árboles binarios

Tablas Hash y árboles binarios Tablas Hash y árboles binarios Algoritmos Tablas hash Árboles Binarios Árboles Balanceados Tablas Hash Introducción Las tablas hash son estructuras tipo vector que ayudan a asociar claves con valores o

Más detalles

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas.

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas. TEMA 11 F MATEMÁTICOS TEMA 11 Autovalores y autovectores Diagonalización y formas canónicas 1 Introducción Definición 1 (Matrices semejantes) Sean A y B dos matrices cuadradas de orden n Decimos que A

Más detalles

PROGRAMACION ENTERA. M. en C. Héctor Martínez Rubin Celis 1

PROGRAMACION ENTERA. M. en C. Héctor Martínez Rubin Celis 1 M. en C. Héctor Martínez Rubin Celis PROGRAMACION ENTERA En muchos problemas prácticos, las variables de decisión son realistas únicamente si estas son enteras. Hombres, máquinas y vehículos deben ser

Más detalles

INFORMACIÓN SOBRE LA PRUEBA DE ACCESO (PAU) A LA UNIVERSIDAD DE OVIEDO. CURSO 2015/2016

INFORMACIÓN SOBRE LA PRUEBA DE ACCESO (PAU) A LA UNIVERSIDAD DE OVIEDO. CURSO 2015/2016 INFORMACIÓN SOBRE LA PRUEBA DE ACCESO (PAU) A LA UNIVERSIDAD DE OVIEDO. CURSO 2015/2016 Materia: MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II 1. COMENTARIOS Y/O ACOTACIONES RESPECTO AL TEMARIO EN RELACIÓN

Más detalles

Instituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal

Instituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Instituto tecnológico de Minatitlán Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Alejandra de la cruz francisco Ingeniería en sistemas computacionales

Más detalles

FM 94 BUFR. Tiempo presente

FM 94 BUFR. Tiempo presente 0 20 003 Tiempo presente 00 49 Sin precipitaciones en la estación en el momento de la observación 00 19 Sin precipitación, niebla, niebla helada (excepto para 11 y 12), tempestad de polvo, tempestad de

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

Cuál es la frecuencia de acceso de una memoria de acceso aleatorio con un tiempo de acceso de 80 nseg. y un tiempo de ciclo de 100 nseg.?.

Cuál es la frecuencia de acceso de una memoria de acceso aleatorio con un tiempo de acceso de 80 nseg. y un tiempo de ciclo de 100 nseg.?. Cuál es la frecuencia de acceso de una memoria de acceso aleatorio con un tiempo de acceso de nseg. y un tiempo de ciclo de nseg.?. f A Hz t 9 C seg Petición de lectura t A Información disponible t C Información

Más detalles

Los Elementos Indispensables en la Formación de Intérpretes

Los Elementos Indispensables en la Formación de Intérpretes 1 Los Elementos Indispensables en la Formación de Intérpretes Sam H. Ham, Ph.D. Department of Conservation Social Sciences University of Idaho USA Presentación al Seminario para la Interpretación Natural

Más detalles

Estándares de Contenido Sencillos de Entender Para Padres y Estudiantes: Matemáticas Estándares del Kindergarten de Matemáticas

Estándares de Contenido Sencillos de Entender Para Padres y Estudiantes: Matemáticas Estándares del Kindergarten de Matemáticas Estándares de Contenido Sencillos de Entender Para Padres y Estudiantes: Matemáticas Estándares del Kindergarten de Matemáticas 1.0 Sentido Numérico Puedo comparar grupos y saber si son iguales, mayores

Más detalles

Sumar datos con las funciones SUMAR. SI Y SUMAR.SI.CONJUNTO

Sumar datos con las funciones SUMAR. SI Y SUMAR.SI.CONJUNTO 2. 3. EFECTUAR SUMAS DE DATOS En esta sección aprenderá a sumar los datos de una hoja en función de los criterios y condiciones que usted defina, así como a trabajar con fórmula matricial es. 1 Sumar datos

Más detalles

5 Relaciones entre variables.

5 Relaciones entre variables. ANÁLISIS EPLORATORIO DE DATOS 39 ANÁLISIS EPLORATORIO DE DATOS 40 Relaciones entre variables..1 Ejercicios. Ejercicio.1 En una muestra de 0 individuos se recogen datos sobre dos medidas antropométricas

Más detalles

CONCEPTOS FUNDAMENTALES

CONCEPTOS FUNDAMENTALES TEMA 8: CONTRASTES DE HIPÓTESIS PARAMÉTRICAS PRIMERA PARTE: Conceptos fundamentales 8.1. Hipótesis estadística. Tipos de hipótesis 8.2. Región crítica y región de aceptación 8.3. Errores tipo I y tipo

Más detalles

MATEMÁTICAS Versión impresa NÚMEROS REALES

MATEMÁTICAS Versión impresa NÚMEROS REALES MATEMÁTICAS Versión impresa NÚMEROS REALES 1. EL CONJUNTO DE LOS NÚMEROS REALES 1.1. Números naturales El conjunto de los números naturales se representa con el símbolo. Los números naturales son los más

Más detalles

PRÁCTICA No. 5 Estados del flujo en un canal

PRÁCTICA No. 5 Estados del flujo en un canal PRÁCTICA No. 5 Estados del flujo en un canal Laboratorio de Hidráulica I OBJETIVO: Observar la generación y el comportamiento de diversos estados del flujo en un canal. INTRODUCCIÓN Para poder comprender

Más detalles

Una población es el conjunto de todos los elementos a los que se somete a un estudio estadístico.

Una población es el conjunto de todos los elementos a los que se somete a un estudio estadístico. Introducción a la Melilla Definición de La trata del recuento, ordenación y clasificación de los datos obtenidos por las observaciones, para poder hacer comparaciones y sacar conclusiones. Un estudio estadístico

Más detalles

1. Mínimos Cuadrados.

1. Mínimos Cuadrados. Departamento de Matemática Aplicada CÁLCULO COMPUTACIONAL. Licenciatura en Química (Curso 2009-10) Análisis de Datos Práctica 7 Escribe en la línea de comandos las órdenes necesarias para resolver estas

Más detalles

Inteligencia en Redes de Comunicaciones

Inteligencia en Redes de Comunicaciones Universidad Carlos III de Madrid Inteligencia en Redes de Comunicaciones PRÁCTICA FINAL PREDICCIÓN METEOROLÓGICA USANDO WEKA Titulación: Ingeniería de Telecomunicación, Curso 5º Pablo Casas Muñoz Roberto

Más detalles

DIAGRAMA MATRICIAL EN "L"

DIAGRAMA MATRICIAL EN L DIAGRAMA MATRICIAL El diagrama matricial (DM) es una herramienta cuyo objetivo es establecer puntos de conexión lógica entre grupos de características, funciones o actividades, reapretándolos gráficamente.

Más detalles

ESTUDIO SOBRE LA BONDAD DEL ÍNDICE DE RIESGO DE INCENDIOS FORESTALES UTILIZADO EN LA CAMPAÑA NACIONAL DE APOYO A LA LUCHA CONTRA INCENDIOS.

ESTUDIO SOBRE LA BONDAD DEL ÍNDICE DE RIESGO DE INCENDIOS FORESTALES UTILIZADO EN LA CAMPAÑA NACIONAL DE APOYO A LA LUCHA CONTRA INCENDIOS. ESTUDIO SOBRE LA BONDAD DEL ÍNDICE DE RIESGO DE INCENDIOS FORESTALES UTILIZADO EN LA CAMPAÑA NACIONAL DE APOYO A LA LUCHA CONTRA INCENDIOS. Inmaculada Cadenas Antonio Mestre Mª Teresa Moreno Servicio de

Más detalles

TEMA 4: CONTRASTES DE HIPÓTESIS. CONCEPTOS BÁSICOS

TEMA 4: CONTRASTES DE HIPÓTESIS. CONCEPTOS BÁSICOS ASIGNATURA: ESTADÍSTICA II (Grado ADE,MIM,FBS) TEMA 4: CONTRASTES DE HIPÓTESIS. CONCEPTOS BÁSICOS 4.1. Hipótesis estadística. Tipos de hipótesis 4.2. Región crítica y región de aceptación 4.3. Errores

Más detalles