PREDICCIÓN METEOROLÓGICA
|
|
- Jaime de la Fuente Rojo
- hace 7 años
- Vistas:
Transcripción
1 PREDICCIÓN METEOROLÓGICA PRÁCTICA FINAL INTELIGENCIA EN REDES DE COMUNICAIONES Roberto Díaz Morales Jaime Mayor Berzal
2 Índice Introducción Tratamiento de datos Predicciones Cuadro con errores Conclusiones Código para traducir el código METAR
3 Introducción Para desarrollar el sistema real de predicción meteorológica, se necesita algún tipo de información que nos ayude a lograr el objetivo. Dicha información es la información METAR (Meteorological Actual Report) que es preciso y fácil de leer. Dicho código proporciona información muy valiosa que utilizan líneas aéreas y organizaciones gubernamentales de todo el mundo. La forma de presentación de dichos datos es la siguiente: HoraCET Temperatura (grados Fahrenheit) Punto de rocío (grados Fahrenheit) Humedad Presión (pulgadas) Visibilidad Dirección del viento Velocidad del viento (millas por hora) Velocidad de ráfagas de viento (millas por hora) Precipitación Eventos Condiciones En cada Fichero con código METAR se tiene la información de un día. No se han utilizado todos los datos de todos los días ni de todas las horas, ya que mucha de esta información no estaba disponible o simplemente había tal cantidad de ficheros que hacían muy difícil el análisis de todos los datos. Los tres objetivos de la predicción son: Predicción de temperatura a 1 hora Predicción de temperatura a 24 horas Predicción de condiciones meteorológicas (Despejado, Parcialmente Nublado, etc) a 24 horas Para la realización de esta práctica se han obtenido datos desde Julio de 1996 hasta Octubre de 2004 de dos aeropuertos de Madrid: Barajas y Cuatro Vientos. A dichos datos se les ha aplicado un tratamiento de datos que se comentará en la siguiente sección.
4 Tratamiento de datos Con el fin de poder utilizar los datos METAR, se tiene que proceder a un procesamiento de datos. Dicho procesamiento fue realizado por un programa implementado por nosotros en Java. Dicho programa saca toda la información del código METAR y lo escribe en formato arff para que pueda ser utilizado por Weka. Los datos fueron tratados de muy diversas maneras y se escribió una notación para cada tipo de previsión. Todos los atributos de las tres previsiones son iguales a excepción del último y se escriben en el siguiente orden: 1. Día Este valor puede tomar valores desde 1 a 366, en el caso de que el año sea bisiesto. La razón de utilizar esta notación y no otra como puede ser día del mes y el mes es que con una numeración global de todo el año puede ser que Weka saque relaciones y mejores resultados y sobre todo usar solo un atributo en vez de dos, con lo que la carga computacional se reduce. 2. HoraCET La Hora toma valores desde 0 hasta 23.5 horas. Se ha modificado la presentación de los datos METAR que aparecían en medidas sexagesimales y AM y PM, para que de esta manera pueda ser más fácil relacionar una hora con su hora posterior para la predicción de 1 hora más tarde. 3. TemperaturaF Esta temperatura está en grados Fahrenheit. Había muchos valores incorrectos debido a los aparatos de medida que podía estropearse o funcionar mal dando. Por lo que se optó sólo dar por validos los valores que estuviesen por encima de 70 y por debajo de 140 que son unos valores más aceptables. 4. Nivel_de_Rocío Muchos de estos valores eran claramente erróneos, como la aparición del valor Por lo que después de ver la distribución total de estos datos y eliminando el valor 9999 se comprobó que la mayoría de los datos estaban en una franja muy delimitada por lo que se limitó los valores del rocío al rango 70 a 65 (el índice inferior podría ser mucho más grande pero se dejó para ver si se conseguían mejores resultados). 5. Humedad Estos son otros datos con muchos errores. Muchos valores no estaban disponibles (N/A) o eran totalmente erróneos (-9999). Además hay que añadir que para el año 2004 aparecen algunos valores expresados en porcentaje, con lo que no pueden usarse con el resto de datos de Humedad.
5 6. PresionIn Estos datos se tratan ajustándolos a un rango de valores normal, ya que ciertos valores eran muy exagerados o incluso totalmente erróneos. Se pusieron como desconocidos los valores no disponibles (N/A), el valor incorrecto 9999 y los valores fuera del rango que consideramos valores normales (entre 15 y 45 pulgadas). 7. Visibilidad Se quitaron los ya mencionados errores incorrectos como el 9999 y se consideraron correctos los valores que estaban en el rango de 70 a 140(el índice inferior podría ser mucho más grande pero se dejó para ver si se conseguían mejores resultados). 8. Dirección del viento Este atributo se transformó en dirección en grados y no en el nombre de las direcciones. Los valores METAR encontrados eran Este, ENE, NE, NNE, Norte, NNO, NO, ONO, Oeste, OSO, SO, SSO, Sur, SSE, SE, ESE, Calm y Variable, estos dos último se tomaban como desconocidos ya que no se podía determinar la dirección. Los demás posibles valores dividían a la circunferencia de 360 grados en 12 direcciones siendo el este 0 y 360º y el resto son valores que se van incrementando 22.5º. 9. Velocidad_del viento Estos valores son tratados de manera que cuando aparecen valores no numéricos como Calm (0, no hay velocidad) no produzcan error. También se quita el valor erróneo 9999 y como pueden aparecer valores excesivos (grandes ventiscas) que pueden perjudicar el problema, se limita la velocidad al rango entre 0 y 78 millas por hora. 10. Ráfaga El tratamiento de los datos es muy similar al caso de la velocidad del viento, pero la principal diferencia es que la cantidad de este tipo de datos es mucho menor. 11. Hechos Este atributo indica un hecho concreto que sucede, como que llueva o nieve. Es distinto al atributo condición: hay muchos menos tipos de hechos y además hay gran cantidad de valores desconocidos. Los hechos utilizados son Lluvia, Tormenta, Lluvia-Tormenta, Lluvia-Nieve, Nieve, Bruma, Tornado, Bruma- Lluvia, Granizo-Tormenta, Lluvia-Granizo-Tormenta, Granizo y Nieve-Granizo.
6 12. Condiciones En todos los archivos se han encontrado un número muy cercano a 50 posibles condiciones. Para simplificar el modelo, se ha reducido el número de condiciones tomando las siguientes simplificaciones: Despejado, Nubes Dispersas => Despejado Nube en Embudo, Parcialmente Nublado, Nublado, Altamente Nublado => Nublado Bancos de Bruma, Bruma Ligera, Bruma Leve, Bruma, Bruma Helada Leve => Bruma Lluvias, Llovizna Leve, Llovizna, Llovizna Abundante, Llovizna Helada Leve, Lluvia Helada Leve, Lluvia Leve, Lluvia, Abundantes Lluvias, Fuertes Lluvias => Lluvia Tormenta Leve, Tormentas Leves y Lluvia, Tormenta, Tormentas y Lluvia, Fuertes Tormentas y Lluvia, Tormentas Leves con Granizo, Tormentas con Granizo => Tormenta Arena, Remolino de Polvo, Nubes de Polvo, Nubes Bajas de Polvo =>Nubes-de-Polvo Leve Caída de Granizo Pequeño, Caídas de Granizo, Granizo Pequeño, Granizo Leve => Granizo Partículas de Nieve, Caídas de Nieve, Nevada Leve, Nieve, Abundante Nieve => Nieve Niebla, Abundante Niebla, Niebla Leve, Neblina => Niebla Humo => Humo Estas agrupaciones no son casuales. El hecho de que se agrupen tanto es que muchas condiciones aparecen muy poco, incluso sólo 1 vez. El hecho de que por ejemplo se agrupen Despejado y Nubes dispersas es que la diferenciación entre ambos suceso y a su vez la distinción de Parcialmente Nublado es muy difícil ya que varían muy poco las condiciones. Por eso se trata de conseguir un menor error reduciendo el número de condiciones. 13. Temperatura de una hora antes Está variable fue introducida para obtener una mejor predicción de la temperatura, ya que es muy probable que si la temperatura de antes y la de ahora son iguales la de la siguiente hora sería muy parecida. No se introdujeron más temperaturas de horas más atrasadas porque no consideramos que mejoraran en demasía el resultado. Además, haciendo un análisis de resultados esta variable no aparecía como una de las variables más determinantes. 14. Temperatura del día anterior a la misma hora Con esta variable pensamos que serviría tanto para estimar la temperatura dentro de una hora como la del día siguiente, ya que tal vez se podría ver una relación entre la hora del día anterior y la del actual y con ello sacar la temperatura del día siguiente.
7 15. Condiciones del día anterior a la misma hora La justificación de la inclusión es similar a la de la variable anterior, conseguir averiguar la posible relación entre las condiciones del día anterior y la del actual, para extrapolar y obtener las del siguiente. Hay un atributo número 16 que es distinto dependiendo de la predicción que queramos hacer: 1) Temperatura en 1 hora Se añade una columna que indica la temperatura en la hora siguiente. Esta será la variable que queremos utilizar para predecir el tiempo al cabo de 1 hora. Para realizar dicha predicción, se eliminaran todos los datos que no conozcan temperatura actual o temperatura dentro de una hora. 2) Temperatura en 24 hora Se añade una columna que indica la temperatura que habrá el día siguiente a la misma hora. Esta será la variable que queremos utilizar para predecir el tiempo al cabo de 24 horas. Para realizar dicha predicción, se eliminaran todos los datos que no conozcan temperatura actual o temperatura del día siguiente a la misma hora. 3) Condiciones en 24 horas Se añade una columna con las condiciones del día siguiente a la misma hora. Esta será la variable que queremos utilizar para predecir las condiciones al cabo de 24 horas. Para realizar dicha predicción, se eliminaran todos los datos que no conozcan condición actual o la condición del día siguiente a la misma hora. Este atributo aparecerá en cada uno de los 3 ficheros que se generan, según que se quiere predecir, temperatura de la hora siguiente, del día siguiente o condiciones del día siguiente. Además de este tratamiento, los datos se han muestreado de tal forma que para el conjunto de entrenamiento (ficheros desde 1996 a 2003) se obtuvieron alrededor de 7000 instancias y para el de Test (2004) unas 700. es decir, el 10% del conjunto de entrenamiento. Esto se ha hecho ya que si el fichero es demasiado grande no hay suficiente memoria para poder utilizar la herramienta Weka correctamente. No se ha descartado ninguna variable ya que al aplicar distintos algoritmos de selección de atributos obtuvimos resultados distintos y preferimos tener un poco de redundancia a quizá perder información. De todas formas realizamos unos análisis de atributos y obtuvimos los siguientes resultados:
8 Para las condiciones del día siguiente con CfsSubsetEval y como método de búsqueda BestFirst o GreedyStepwise se obtuvieron que los atributos más importantes eran: día Humedad PresionIn Visibilidad_MPH Velocidad_vientoMPH Conditions TemperaturaF1HAntes Conditions1DAntes Para estimar la temperatura de la hora siguiente y la del día siguiente usando los mismos métodos, obtuvimos que la variable determinante era la temperatura actual.
9 Predicciones Predicción de las condiciones a 24 horas Para predecir las condiciones hemos usado todos las clasificadores que nos permitía usar Weka. Para ello hemos aplicado uno o varios algoritmos de cada tipo para ver con cuales obteníamos mejores resultados. Rules Este es el clasificador del que más algoritmos hemos probado. Este tipo de clasificadores crea un conjunto de reglas a partir de las cuales tratan de predecir cuáles serán las condiciones del día siguiente. Los resultados varían según que algoritmo se utilice. A continuación se muestran los distintos algoritmos: Conjunctive Rule Esta clase implementa un algoritmo crea una regla conjuntiva sencilla. Dicha regla consiste en realizar la conjunción (AND) de los antecedentes del atributo a predecir mediante una clasificación (si hubiera sido numérica la variable hubiera sido una regresión) El resumen del resultado se muestra a continuación Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % En estos resultados se puede observar que de las 713 correspondientes al año 2004 del fichero de Test, 441 han sido correctamente clasificadas y 272 no lo han sido, lo que nos da un error ERROR #aciertos 272 = = 0, ,14866% #aciertos + #fallos 713 == Como se puede ver en la matriz de confusión, el principal error aparece cuando intenta decidir si está nublado o está despejado.
10 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Decisión Table Crea una tabla de decisión para clasificar las condiciones. Los resultados son los siguientes: Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 A partir de los resultados se obtiene el siguiente error: ERROR #aciertos 260 = = 0, ,5682 % #aciertos + #fallos 711 == La matriz de confusión, como en el caso anterior confunde en gran medida la condición nublado y despejado. El error en este caso es menor porque diferencia mucho mejor la condición despejado con respecto a nublado, pero no así nublado de despejado. Además el número de sucesos despejado es mucho mayor por lo que el algoritmo ante la duda opta por el que más instancias hay. === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo
11 Part Crea una lista de decisión PART. Utiliza divide y vencerás. Construye un árbol de decisión parcial en cada iteración y convierte la mejor hoja de este árbol en regla. Los resultados son Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Con los que se obtiene el error ERROR #aciertos 256 = = 0,359 35,9% #aciertos + #fallos 713 == Observando el error se ve que es menor a todos los demás porque aunque confunde más despejados que con el algoritmo anterior acierta más nublados, es decir aunque confunde más el caso despejado, sólo confunde unos pocos, clasifica como nublados casi el doble más que antes. === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Para este tipo de clasificadores no se comentan más algoritmos, sí se destaca que el uso del algoritmo ZeroR no sería adecuado si no fuese Madrid una zona donde la mayor parte del año está despejado, ya que este algoritmo mira cual es la media o la moda de los resultados y toma como predicción ese caso. Para las condiciones clasifica toda instancia como despejado con lo que al haber mayor numero de despejados da que el error es menor que los tres algoritmos anteriores ya que acierta todos los casos despejados y falla todos los demás. El error de este algoritmo es #aciertos 236 ERROR = = 0,331 == 33,1% #aciertos + #fallos 713
12 Trees Se crean árboles de decisión para predecir qué condición habrá al día siguiente. Los nodos intermedios representan atributos de los ejemplos presentados, las ramas sus posibles valores y las hojas los resultados. Hay que apuntar que debido al gran tamaño de estos árboles (ocuparían varias hojas) sólo se presentaran los que sean más pequeños y los demás es podrán observar en los ficheros resultado entregados junto con esta memoria. Se han usado tres algoritmos de este tipo J48 Este algoritmo es la implementación de Weka al algoritmo C.45, que a su vez es una extensión del algoritmo ID3. Puede rescribirse en formas de reglas IF- THEN. Los resultados son los siguientes Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 El error es ERROR #aciertos 252 = = 0, ,44% #aciertos + #fallos 711 == Fijándonos en la matriz de confusión se puede observar que identifica la mayoría de los casos despejados aunque sigue fallando bastante en los casos nublados. === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo
13 DecisionStump Este algoritmo se basa en coger un atributo y con el elegir el resultado. Los datos desconocidos se consideran otra situación. En este caso sólo se fija en el atributo Visibilidad. Según un valor de esta decide si es nublado o despejado (las 2 condiciones mayoritarias) Decision Stump Classifications Visibilidad_MPH <= 6.3 : Nublado Visibilidad_MPH > 6.3 : Despejado Visibilidad_MPH is missing : Despejado Si miramos los resultados se obtienen que son los de menor error. Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 El error obtenido es 31,5% que es el menor obtenido por el hecho de que trata de diferenciar los dos tipos de sucesos que más ejemplos tienen ERROR #aciertos 224 = = 0,315 31,5% #aciertos + #fallos 711 == === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Al igual de antes se vuelve a apuntar que otro algoritmo, User Classifier, tiene un error muy bajo gracias al gran numero de condiciones despejado que hay entre las instancias.
14 Meta Muchos de estos algoritmos dependen del clasificador que se utilicen. Si se utiliza un clasificador que de buenos resultados, el algoritmo de este tipo también dará buenos resultados. De este tipo de algoritmos sólo se comentará se comentara el Filtered Classifier usando Decisión Table adjuntando los demás modelos y resultados probados. === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 ERROR #aciertos 243 = = 0, ,2% #aciertos + #fallos 711 == === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Como se puede ver los resultados son ligeramente mejores que con el clasificador Decisión Table.
15 Lazy Los algoritmos utilizados son los que se basan en los K vecinos más próximos. Se ha jugado con el número de vecinos hasta obtener la mejor solución. La mejor solución que hemos obtenido ha sido para K=17 y distancia 1/w (no se utilizó K mayores por el gran tiempo que tardaban en ejecutarse) Los resultados obtenidos son los que se muestran a continuación: Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Se puede observar de la matriz de confusión que sólo identifica despejado y nublados identificando gran numero de ellos. ERROR #aciertos 250 = = 0, ,16% #aciertos + #fallos 711 == Functions Dentro de este tipo se encuentran los métodos para hacer regresiones lineales (que servirán para el caso de predecir temperatura, no en el de predecir condiciones) y redes de neuronas como pueden ser el perceptron y sus variantes y las redes de neuronas base radial. Estas últimas han sido elegidas porque son más rápidas que las otras y por que son más fácilmente configurables al sólo la capa oculta. Pero hay que tener cuidado con el número de neuronas elegido ya que la red puede sobreaprender y el error sería muy elevado ya que la red se habría aprendido los sucesos de entrenamiento y no sería capaz de generalizar que es nuestro objetivo.
16 Perceptron Multicapa El perceptron multicapa es una red neuronal con varias capas ocultas de neuronas que utiliza como función de aprendizaje el backpropagation o propagación hacia atrás. Es muy útil para resolución de problemas lineales y para resolver problemas de más complejidad lo que hay que hacer es aumentar su número de neuronas y de capas (sin que llegue a sobreaprender) Los resultados son: Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 El error es el siguiente: #aciertos 252 ERROR = = 0,35443 == 35,443% #aciertos + #fallos 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo Sólo discrimina entre despejado y nublado porque no hay el número suficiente de ocurrencias de las otras condiciones que permiten que la red aprenda esa condición. Red de Base Radial Como se ha comentado antes estas redes son muy rápidas y se usan para resolver problemas no lineales. Como no sabemos si la relación de la variable condiciones del día después con el resto de variables es lineal aplicamos está red. Hemos utilizado 7 clústeres. Los resultados son:
17 === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo El error es ERROR #aciertos 227 = = 0, ,9268% #aciertos + #fallos 711 == Se puede observar que sólo discrimina entre nublado y despejado, pero casi todo es clasificado como despejado, de ahí que el error sea bajo. Redes bayesianas El uso de estas redes es adecuado ya que estas redes son grafos acíclicos y cada nodo representa una variable, como puede ser la temperatura, la humedad Los arcos que unen variables indican influencia causal mientras que la ausencia de ellos indica independencia a priori (puede ser que se supongan independientes y más tarde se comprueben que no lo son y haya que definir un arco) Son redes probabilísticas con lo que va a afectar la ocurrencia de las condiciones. Si no conocen el dato de algún nodo lo estiman con distintos algoritmos. Red Bayesiana Es una red bayesiana normal. Los resultados se muestran a continuación: === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711
18 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo El error es ERROR #aciertos 273 = = 0, ,39% #aciertos + #fallos 711 == Como se observa en la matriz de confusión, el error es muy parecido a los anteriores porque casi todas las instancias están clasificadas como despejadas, aunque al contrario que en otros casos hay más condiciones que sólo las dos mayoritarias (aunque las clasifique mal) NaiveBayesian Esta es una red bayesiana más simple. Coge los estimadores basándose en el análisis del conjunto de entrenamiento. === Summary === Correctly Classified Instances % Incorrectly Classified Instances % Kappa statistic K&B Relative Info Score % K&B Information Score bits 0.17 bits/instance Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 711 === Confusion Matrix === a b c d e f g h i j <-- classified as a = Lluvia b = Tormenta c = Despejado d = Bruma e = Nublado f = Humo g = Granizo h = Nieve i = Niebla j = Nubes-de-Polvo El error es muy malo ya que no se limita como anteriores algoritmos a identificar solamente nublado y despejado sino también otras condiciones como es la lluvia. El problema es que lo hace mal y comete muchos más errores.
19 Predicción de la temperatura de la hora siguiente y del día siguiente Para predecir la temperatura hemos utilizado casi la totalidad de métodos que Weka nos permitía. Se han utilizado varios algoritmos de cada tipo, excepto de las redes Bayesianas ya que estas se utilizan para clasificar y no para predecir un número real, para ver con cuales obteníamos mejores resultados. Functions Dentro de este tipo se encuentran los métodos para hacer regresiones lineales (que servirán para el caso de predecir temperatura, no en el de predecir condiciones) y redes de neuronas como pueden ser el perceptron y sus variantes y las redes de neuronas base radial. Estas últimas han sido elegidas porque son más rápidas que las otras y por que son más fácilmente configurables al sólo la capa oculta. Pero hay que tener cuidado con el número de neuronas elegido ya que la red puede sobreaprender y el error sería muy elevado ya que la red se habría aprendido los sucesos de entrenamiento y no sería capaz de generalizar que es nuestro objetivo. LeastMedSq Implementa una regresión lineal least median squared para calcular los coeficientes de la función, el resumen del resultado es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,742 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,870 % Linear regresion Implementa una regresión lineal para calcular los coeficientes de la función, el resumen del resultado es el siguiente:
20 Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,742 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,807 % Multilayer Perceptron Es una red neuronal que usa propagación hacia atrás para entrenar, el resumen del resultado es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,74 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,87 %
21 3.2 Lazy: Los algoritmos utilizados son los que se basan en los K vecinos más próximos. IB1 Clasifica por el método del vecino más cercano, el resumen del resultado es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 13,93 % Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 13,68 % IBK Clasifica por el método de los k vecinos más cercanos, el resumen del resultado es el siguiente, por ejemplo, para 67 vecinos más próximos hemos obtenido estos resultados: Correlation coefficient Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Total Number of Instances 734 ERROR = media( abs(tpredicha-treal)/treal )*100 = 6,23%
22 -Para predecir la temperatura del día siguiente: KSTAR Correlation coefficient Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 7,69% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 3,69% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 7,43% LWL Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 11,64%
23 Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 11,99% META: Muchos de estos algoritmos dependen del clasificador que se utilicen. Si se utiliza un clasificador que de buenos resultados, el algoritmo de este tipo también dará buenos resultados. Additive Regresión: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,84% Correlation coefficient Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 7,34%
24 Attribute Selected Clasifier: Correlation coefficient 0 Class complexity order bits bits/instance Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06% Bagging: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,33% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,40%
25 CV Parameter Selection: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06% Filtered Classifier: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,70% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,07%
26 Multischeme: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,07% Regresion by Discretization: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 3,80% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 6,95%
27 Stacking: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06% Vote: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06%
28 TREES: Se crean árboles de decisión para predecir qué condición habrá al día siguiente. Los nodos intermedios representan atributos de los ejemplos presentados, las ramas sus posibles valores y las hojas los resultados. Hay que apuntar que debido al gran tamaño de estos árboles (ocuparían varias hojas) sólo se presentaran los que sean más pequeños y los demás es podrán observar en los ficheros resultado entregados junto con esta memoria. Se han usado tres algoritmos de este tipo Decision Stump: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 12,51% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % M5P: ERROR = media( abs(tpredicha-treal)/treal )*100 = 13,09% Con este árbol se han obtenido buenos resultados Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,33%
29 Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,79% La forma de este árbol para calcular la temperatura del día siguiente sería: REP Tree: Consiste en un árbol que aprenden mediante decisión rápida, el resumen de resultados es el siguiente: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,55%
30 RULES: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,96% Este tipo de clasificadores crea un conjunto de reglas a partir de las cuales tratan de predecir cual será la temperatura. Los resultados varían según que algoritmo se utilice. A continuación se muestran los distintos algoritmos: ZeroR: Consiste simplemente en un decisor 0-R, el resultado ha sido el siguiente: Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 21,71% Correlation coefficient 0 Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error 100 % Root relative squared error 100 % ERROR = media( abs(tpredicha-treal)/treal )*100 = 22,06%
31 M5 Rules: Genera una lista de decisión para problemas de regresión usando separación y conquista. El resumen de los resultados es el siguiente: Correlation coefficient Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 2,31% Correlation coefficient Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % Decision Table: ERROR = media( abs(tpredicha-treal)/treal )*100 = 5,75% Crea una tabla de decisión para clasificar las condiciones. Los resultados son los siguientes: Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 3,64% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 6,43%
32 Conjunctive Rule: Esta clase implementa un algoritmo crea una regla conjuntiva sencilla. Dicha regla consiste en realizar la conjunción (AND) de los antecedentes del atributo a predecir mediante una regresión. El resumen del resultado se muestra a continuación Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 12,51% Correlation coefficient Class complexity scheme bits bits/instance Complexity improvement (Sf) bits bits/instance Mean absolute error Root mean squared error Relative absolute error % Root relative squared error % ERROR = media( abs(tpredicha-treal)/treal )*100 = 12,90%
33 Cuadro con errores obtenidos Temperaturas Función 1 hora 24 horas LeastMedSq 2,74 5,87% Linear Regresion 2,74 5,87% Multilayer Perceptron 2,74 5,87% IB1 13,93 13,68% IBK 6,23 7,69% KStar 3,69 7,43% LWL 11,64 11,99% Additive Regresion 5,84 7,34% Attribute Selecte Clasifier 21,71 22,06% Baggins 2,33 5,4% CVParameter selection 21,71 22,06% Filtered Clasifier 21,71 22,06% Multischeme 21,71 22,06% Regresion by discretization 3,80 6,95% Staking 21,71 22,06% Vote 21,71 22,06% Decisión Stump 12,51 13,09% M5P 2,33 5,79% REP Tree 2,55 5,96% ZeroR 21,71 22,06% M5 Rules 2,31 5,75% Decisión Table 3,64 6,43% Conjunctive Rule 12,51 12,90% Condiciones: Conjuntive Rule 38,14% Tabla de Decisión 36,56% Part 35,90% ZeroR 33,1% J48 35,443% Decisión Stump 31,5% Filtered Classifier (con decision table) 34,17% IBK (K=7) 35,16% Perceptron multicapa 35,443% Red de Base Radial 31,92% Red Bayesiana 38,39% Naive Bayesian 40,08%
INGENIERÍA DE TELECOMUNICACIÓN INTELIGENCIA EN REDES DE ORDENADORES
INGENIERÍA DE TELECOMUNICACIÓN INTELIGENCIA EN REDES DE ORDENADORES Jaime de Uriarte de Antonio 100021498 Olivia García Robas 100021435 ÍNDICE Página 1. Introducción 3 2. Tratamiento de datos 4 3. Predicciones..
Más detallesInteligencia en Redes de Comunicaciones
Inteligencia en Redes de Comunicaciones Predicción meteorológica Aitor Mendaza Ormaza 100021542 INDICE Introducción 1 Tratamiento de Datos.5 Resultados y análisis 7 Introducción: El objetivo de esta práctica
Más detallesPREDICCIÓN METEOROLÓGICA
PRÁCTICA FINAL DE INTELIGENCIA EN REDES DE ORDENADORES PREDICCIÓN METEOROLÓGICA 5º INGENIERIA DE TELECOMUNICACIÓN Julio Alberto Polo Fernández 100029757 Raúl Muñoz Martínez 100029571 INDICE 1) Introducción
Más detallesPREDICCIÓN METEOROLÓGICA
PREDICCIÓN METEOROLÓGICA INTELIGENCIA EN REDES DE COMUNICACIONES INTRODUCCIÓN En esta práctica se pretende obtener un sistema real de predicción meteorológica utilizando técnicas de aprendizaje automático
Más detallesPredicción meteorológica
Predicción meteorológica Trabajo hecho por: Roberto García Sanchez Pablo Casas Muñoz Qué es WEKA? Acrónimo de Waikate Environment for Knowledge Analisis Es un entorno para experimentación de análisis de
Más detallesSISTEMAS INTELIGENTES
SISTEMAS INTELIGENTES T8: Aprendizaje basado en instancias www.aic.uniovi.es/ssii Índice Aprendizaje basado en instancias Métricas NN Vecino más próximo: Regiones de Voronoi El parámetro K Problemas de
Más detallesPráctica Final: Predicción Metereológica en Weka.
INTELIGENCIA EN REDES DE COMUNICACIONES Práctica Final: Predicción Metereológica en Weka. Ramón Fernández Lorenzana 100025293 Manuel Asenjo Chacón 100050872 5º Ingeniería de Telecomunicación 1.PREPROCESADO
Más detallesMinería de Datos. Predicción Meteorológica
Minería de Datos Jesús Sáez Gómez Escalonilla Inteligencia en Redes de Comunicación Ing. Telecomunicación Página 1 de 25 1. Introducción El objetivo de la práctica es el desarrollo de un sistema real de
Más detallesTRABAJO FIN DE ASIGNATURA
INTELIGENCIA EN REDES DE COMUNICACIONES TRABAJO FIN DE ASIGNATURA Luis Javier Duque Cuadrado 1 Breve descripción de los algoritmos elegidos 1.1 Clasificación a) Árboles de decisión de un nivel (decision
Más detalles2.5. Asimetría y apuntamiento
2.5. ASIMETRÍA Y APUNTAMIENTO 59 variable Z = X x S (2.9) de media z = 0 y desviación típica S Z = 1, que denominamos variable tipificada. Esta nueva variable carece de unidades y permite hacer comparables
Más detalles3. Métodos clásicos de optimización lineal
3. Métodos clásicos de optimización lineal Uso del método Simplex El problema que pretende resolverse es un problema de optimización lineal sujeto a restricciones. Para el modelo construido para el problema
Más detallesMÉTODOS DE APRENDIZAJE INDUCTIVO
Aprendizaje Automático y Data Mining Bloque III MÉTODOS DE ARENDIZAJE INDUCTIVO 1 Índice Clasificación de métodos: Lazy Eager Árboles de decisión. Listas de reglas. Aprendizaje Bayesiano. Redes neuronales
Más detallesTEMA 5. LA PARTE GASEOSA DE LA TIERRA
UNIDAD DIDÁCTICA ADAPTADA CIENCIAS DE LA NATURALEZA 1º ESO TEMA 5. LA PARTE GASEOSA DE LA TIERRA ÍNDICE 1.- QUÉ ES LA ATMÓSFERA? 2.- QUÉ GASES HAY EN LA ATMÓSFERA? 3.- ESTRUCTURA DE LA ATMÓSFERA. 4.- LA
Más detallesFundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos. - Sesión 11 -
Fundamentos y Aplicaciones Prácticas del Descubrimiento de Conocimiento en Bases de Datos - Sesión 11 - Juan Alfonso Lara Torralbo 1 Índice de contenidos Actividad. Resolución manual de clasificación bayesiana
Más detallesAPLICACIÓN DE ÁRBOLES BINARIOS
PRÁCTICA Nº 6: 2 sesiones (del 22 al 31 de Mayo de 2002) APLICACIÓN DE ÁRBOLES BINARIOS A LA COMPRESIÓN DE FICHEROS DE TEXTO MEDIANTE LA UTILIZACIÓN DE LOS CÓDIGOS DE HUFFMAN 0.- OBJETIVOS El objetivo
Más detallesEstructuras de control
Estructuras de control El flujo secuencial de acciones en un algoritmo puede ser alterado por medio de las denominadas estructuras de control, las cuales se resumen a continuación: Estructuras de selección
Más detallesPROGRAMACIÓN LINEAL ENTERA
PROGRAMACIÓN LINEAL ENTERA Programación lineal: hipótesis de perfecta divisibilidad Así pues decimos que un problema es de programación lineal entera, cuando prescindiendo de las condiciones de integridad,
Más detallesCLIMATOLOGÍA AERONÁUTICA (2000-2010) AEROPUERTO INTERNACIONAL TOBÍAS BOLAÑOS PALMA (COSTA RICA)
CLIMATOLOGÍA AERONÁUTICA (2000-2010) AEROPUERTO INTERNACIONAL TOBÍAS BOLAÑOS PALMA (COSTA RICA) W. Stolz España J. Rojas Ureña Gabriela Chinchilla R. 2012 CARACTERÍSTICAS DEL AEROPUERTO El Aeropuerto Internacional
Más detallesPráctica 2 Estadística Descriptiva
Práctica 2 Estadística Descriptiva Contenido Introducción...................................... 1 Tablas de frecuencias................................. 2 Medidas de centralización, dispersión y forma...................
Más detallesAprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur
Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur MODELOS: ÁRBOLES DE DECISIÓN Y REGLAS Datos de entrada 91 71 75 81 Nublado 90 72 Nublado 70 75 80 75 70
Más detallesTema 3. Medidas de tendencia central Ejercicios resueltos 1
Tema 3. Medidas de tendencia central Ejercicios resueltos 1 Ejercicio resuelto 3.1 La demanda de cierto artículo en 48 días fue 1, 4, 1, 0, 2, 1, 1, 3, 2, 1, 1, 0, 3, 2, 4, 3, 4, 1, 2, 1, 1, 2, 2, 2, 1,
Más detallesD.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO
Anejo Análisis estadístico de temperaturas Análisis estadístico de temperaturas - 411 - D.1 INTRODUCCIÓN Y OBJETIVO El presente anejo tiene por objeto hacer un análisis estadístico de los registros térmicos
Más detallesNuestro planeta, la Tierra, está rodeado de aire. El aire está formado por diferentes tipos de gases. Algunos son:
Área Conocimiento del Medio. Adaptación de Textos. 3º EP. Libro de la Editorial Santillana, Proyecto La Casa del Saber. El aire 1 1. Cómo es el aire? Nuestro planeta, la Tierra, está rodeado de aire. El
Más detallesIsmael Fernández Castellano Telmo Calle Facal Grupo 91
PREDICCIÓN METEOROLÓGICA CON LA PLATAFORMA WEKA Ismael Fernández Castellano 100033034 Telmo Calle Facal 100035925 Grupo 91 1. INTRODUCCIÓN El objetivo de la práctica es desarrollar un sistema de caracterización
Más detallesb 11 cm y la hipotenusa
. RESOLUCIÓN DE TRIÁNGULOS RECTÁNGULOS UNIDAD : Trigonometría II Resolver un triángulo es conocer la longitud de cada uno de sus lados y la medida de cada uno de sus ángulos. En el caso de triángulos rectángulos,
Más detallesElaboración de un Mapa de Contornos
Elaboración de un Mapa de Contornos Objetivo General Aprender cómo se pueden hacer a mano los mapas de contornos. Visión General El alumnado marca los datos de los centros escolares GLOBE sobre un mapa
Más detallesPredicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte
Predicción de la relación entre el género, la cantidad de cigarrillos y enfermedades usando Máquinas de Vector Soporte Resumen En este trabajo se usó Máquinas de Vectores de Soporte (SVM, por sus siglas
Más detallesMétodos basados en instancias. K-vecinos, variantes
Métodos basados en instancias K-vecinos, variantes Contenido 1. Caracterización 2. K-vecinos más próximos 3. Mejoras al algoritmo básico 4. Bibliografía 2 1. Caracterización Forma más sencilla de aprendizaje:
Más detallesPráctica 5: Clasificación con número variable de ejemplos.
5º INGENIERÍA DE TELECOMUNICACIÓN INTELIGENCIA ARTIFICIAL Y RECONOCIMIENTO DE PATRONES Práctica 5: Clasificación con número variable de ejemplos. Objetivos: Utilización de conjuntos de entrenamiento y
Más detalles3. VARIABLES ALEATORIAS
. VARIABLES ALEATORIAS L as variables aleatorias se clasiican en discretas y continuas, dependiendo del número de valores que pueden asumir. Una variable aleatoria es discreta si sólo puede tomar una cantidad
Más detallesEstadística Avanzada y Análisis de Datos
1-1 Estadística Avanzada y Análisis de Datos Javier Gorgas y Nicolás Cardiel Curso 2006-2007 2007 Máster Interuniversitario de Astrofísica 1-2 Introducción En ciencia tenemos que tomar decisiones ( son
Más detallesUso de centinelas para la toma de decisiones. Esquemas y diagramas de flujo. Ejemplos resueltos. (CU00167A)
aprenderaprogramar.com Uso de centinelas para la toma de decisiones. Esquemas y diagramas de flujo. Ejemplos resueltos. (CU00167A) Sección: Cursos Categoría: Curso Bases de la programación Nivel I Fecha
Más detallesExplorando la ecuación de la recta pendiente intercepto
Explorando la ecuación de la recta pendiente intercepto Realiza las siguientes actividades, mientras trabajas con el tutorial. 1. Los puntos que están en la misma recta se dice que son. 2. Describe el
Más detallesGUIA PRACTICA PARA LA APLICACIÓN DE MS EXCEL TECNOLOGIA/ INFORMATICA
Fórmulas y funciones De la barra de menú seleccionmos la opción insertar y haciendo clic en la opción f x se desplegará el siguiente cuadro de diálogo a partir del cual escogeremos la función adecuada
Más detallesAnexo C. Introducción a las series de potencias. Series de potencias
Anexo C Introducción a las series de potencias Este apéndice tiene como objetivo repasar los conceptos relativos a las series de potencias y al desarrollo de una función ne serie de potencias en torno
Más detallesRepresentación de números enteros: el convenio complemento a dos
Representación de números enteros: el convenio complemento a dos Apellidos, nombre Martí Campoy, Antonio (amarti@disca.upv.es) Departamento Centro Informàtica de Sistemes i Computadors Escola Tècnica Superior
Más detallesAprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Más detallesDeclaración de variables (integer, single, double, boolean, etc.) en Visual Basic. Dim. Ejemplos. (CU00309A)
aprenderaprogramar.com Declaración de variables (integer, single, double, boolean, etc.) en Visual Basic. Dim. Ejemplos. (CU00309A) Sección: Cursos Categoría: Curso Visual Basic Nivel I Fecha revisión:
Más detallesMedidas de Dispersión
Medidas de Dispersión Revisamos la tarea de la clase pasada Distribución de Frecuencias de las distancias alcanzadas por las pelotas de golf nuevas: Dato Frecuencia 3.7 1 4.4 1 6.9 1 3.3 1 3.7 1 33.5 1
Más detallesRelación 1. Sucesos y probabilidad. Probabilidad condicionada.
Relación. Sucesos y probabilidad. Probabilidad condicionada.. Sean A, B y C tres sucesos cualesquiera. Determine expresiones para los siguientes sucesos: Ocurre sólo A. Ocurren A y B pero no C. c) Ocurren
Más detallesEl Método Simplex. H. R. Alvarez A., Ph. D. 1
El Método Simplex H. R. Alvarez A., Ph. D. 1 El Método Simplex Desarrollado en 1947 por George Dantzig como parte de un proyecto para el Departamento de Defensa Se basa en la propiedad de la solución esquina
Más detallesBASES DE DATOS. En Access hay una serie de herramientas u objetos que facilitan enormemente el tratamiento de la información:
BASES DE DATOS Concepto de archivo o fichero. Un Fichero es un conjunto de información almacenado en los periféricos de memoria masiva de datos y que es tratado como una unidad por el sistema operativo.
Más detallesLos números naturales
Los números naturales Los números naturales Los números naturales son aquellos que sirven para contar. Se suelen representar utilizando las cifras del 0 al 9. signo suma o resultado Suma: 9 + 12 = 21 sumandos
Más detallesDistribución normal. Cajón de Ciencias. www.cajondeciencias.com. Qué es una variable estadística?
Distribución normal Cajón de Ciencias Qué es una variable estadística? Una variable estadística es un parámetro que puede variar de manera aleatoria dentro de un rango de valores. Por ejemplo, la variable
Más detallesIntroducción a la Geometría Computacional
Dr. Eduardo A. RODRÍGUEZ TELLO CINVESTAV-Tamaulipas 8 de enero del 2013 Dr. Eduardo RODRÍGUEZ T. (CINVESTAV) Introducción a la GC 8 de enero del 2013 1 / 17 1 Introducción a la Geometría Computacional
Más detallesLos números enteros. > significa "mayor que". Ejemplo: 58 > 12 < significa "menor que". Ejemplo: 3 < 12 Cualquier número positivo siempre es mayor
Los números enteros Los números enteros Los números enteros son aquellos que permiten contar tanto los objetos que se tienen, como los objetos que se deben. Enteros positivos: precedidos por el signo +
Más detallesPráctica 2: Utilización de WEKA desde la línea de comandos.
PROGRAMA DE DOCTORADO TECNOLOGÍAS INDUSTRIALES APLICACIONES DE LA INTELIGENCIA ARTIFICIAL EN ROBÓTICA Práctica 2: Utilización de WEKA desde la línea de comandos. Objetivos: Utilización de WEKA desde la
Más detallesLa estadística en Internet
5 La estadística en Internet Neus Canal Díaz 5.1. Introducción Actualmente, Internet se está convirtiendo en una de las principales fuentes de información en muchas áreas, como es la investigación científica.
Más detallesSucesiones (páginas 511 515)
A NMRE FECHA PERÍD Sucesiones (páginas 5 55) Una sucesión es una lista de números en un cierto orden. Cada número se llama término de la sucesión. En una sucesión aritmética, la diferencia entre cualquier
Más detallesMatrices escalonadas y escalonadas reducidas
Matrices escalonadas y escalonadas reducidas Objetivos. Estudiar las definiciones formales de matrices escalonadas y escalonadas reducidas. Comprender qué importancia tienen estas matrices para resolver
Más detallesGeneración de funciones lógicas mediante multiplexores
Generación de funciones lógicas mediante multiplexores Apellidos, nombre Martí Campoy, Antonio (amarti@disca.upv.es) Departamento Centro Informática de Sistemas y Computadores Universidad Politécnica de
Más detallesUNIDAD 3 FUNCIONES, FÓRMULAS Y MANIPULACIONES
UNIDAD 3 FUNCIONES, FÓRMULAS Y MANIPULACIONES CURSO: LibreOffice calc 1 Introducción y Objetivos Ya sabemos introducir datos y darles formato para que nuestros datos se representen correctamente, pero
Más detallesRepresentación de números enteros: el convenio complemento a uno
Representación de números enteros: el convenio complemento a uno Apellidos, nombre Martí Campoy, Antonio (amarti@disca.upv.es) Departamento Centro Informàtica de Sistemes i Computadors Escola Tècnica Superior
Más detallesArbol de Decisiones-Investigación de Operaciones II
Árbol de Decisiones De forma más concreta, refiriéndonos al ámbito empresarial, podemos decir que los árboles de decisión son diagramas de decisiones secuenciales nos muestran sus posibles resultados.
Más detallesPráctica 1: Introducción a SPSS 1
Estadística Aplicada Curso 2010/2011 Diplomatura en Nutrición Humana y Dietética Práctica 1: Introducción a SPSS 1 Este programa estadístico está organizado en dos bloques: el editor de datos y el visor
Más detallesPráctica 2 Métodos de búsqueda para funciones de una variable
Práctica 2 Métodos de búsqueda para funciones de una variable Introducción Definición 1. Una función real f se dice que es fuertemente cuasiconvexa en el intervalo (a, b) si para cada par de puntos x 1,
Más detallesCAPÍTULO 1. 1.1 Introducción
CAPÍTULO 1 1.1 Introducción El Simulador Internacional de Negocios de la Universidad Carnegie Mellon, es una herramienta que da a los estudiantes la oportunidad de pensar y actuar como administradores
Más detallesSistemas de ecuaciones lineales
Sistemas de ecuaciones lineales Este tema resulta fundamental en la mayoría de las disciplinas, ya que son muchos los problemas científicos y de la vida cotidiana que requieren resolver simultáneamente
Más detallesCombinación Lineal. Departamento de Matemáticas, CCIR/ITESM. 10 de enero de 2011
Combinación Lineal Departamento de Matemáticas, CCIR/ITESM 10 de enero de 011 Índice.1. Introducción............................................... 1.. Combinación lineal entre vectores...................................
Más detallesMETODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD
METODO SIMPLEX ANALISIS DE SENSIBILIDAD Y DUALIDAD Análisis de sensibilidad con la tabla simplex El análisis de sensibilidad para programas lineales implica el cálculo de intervalos para los coeficientes
Más detallesAprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur
Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur EVALUACIÓN Evaluación: entrenamiento y test Una vez obtenido el conocimiento es necesario validarlo para
Más detallesInteligencia Artificial II (Curso ) Ejercicios propuestos del tema 5
Inteligencia Artificial II (Curso 0-0) Ejercicios propuestos del tema Ejercicio : Diseñar un perceptrón simple con n valores de entrada y función umbral de activación que sirva para calcular la función
Más detallesAPRENDIZAJE BASADO EN INSTANCIAS. Eduardo Morales y Jesús González
APRENDIZAJE BASADO EN INSTANCIAS Eduardo Morales y Jesús González Aprendizaje basado en Instancias 2 Diferente al tipo de aprendizaje que hemos visto Se almacenan los ejemplos de entrenamiento Para clasificar
Más detallesDOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL
DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL 3.1 INTRODUCCIÓN Como ya sabes, una distribución de probabilidad es un modelo matemático que nos ayuda a explicar los
Más detallesPráctica 3. CÁLCULO DE LA FUNCIÓN SENO UTILIZANDO UN DESARROLLO EN SERIE
PROGRAMACIÓN (EUI). Curso 2001-2002 Práctica 3. CÁLCULO DE LA FUNCIÓN SENO UTILIZANDO UN DESARROLLO EN SERIE F. Marqués y N. Prieto Índice General 1 Introducción 1 2 El problema 1 2.1 Desarrollo en serie
Más detallesDefiniciones Diseño de Experimentos: Diseño del Experimento: Replicación o Repetición:
Definiciones Diseño de Experimentos: La experimentación es una técnica utilizada para encontrar el comportamiento de una variable a partir de diferentes combinaciones de factores o variables de entrada
Más detallesTEMA 2: EL INTERÉS SIMPLE
TEMA 2: EL INTERÉS SIMPLE 1.- CAPITALIZACIÓN SIMPLE 1.1.- CÁLCULO DEL INTERÉS: Recibe el nombre de capitalización simple la ley financiera según la cual los intereses de cada periodo de capitalización
Más detallesEstadística II Tema 4. Regresión lineal simple. Curso 2010/11
Estadística II Tema 4. Regresión lineal simple Curso 010/11 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores
Más detallesSistemas de Ecuaciones Lineales
Sistemas de Ecuaciones Lineales 1 Sistemas de ecuaciones y matrices Definición 1 Una ecuación lineal en las variables x 1, x 2,..., x n es una ecuación de la forma con a 1, a 2... y b números reales. a
Más detalles3. CREAR FORMULARIOS 3.1. CREAR FORMULARIOS CREAR UN FORMULARIO CON EL ASISTENTE PARA FORMULARIOS UNIDAD 3- CREAR FORMULARIOS
3. CREAR FORMULARIOS Los formularios sirven como interfaz de usuario de una base de datos en Access, simplificando el modo de navegación entre los objetos y las características que define y organizan las
Más detallesJesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL
Jesús García Herrero TÉCNICAS DE REGRESIÓN NO LINEAL En esta clase se presenta un método de inducción de modelos numéricos de regresión a partir de datos. En el tema de técnicas clásicas se presentó la
Más detallesTEMA 11. LA FIABILIDAD DE LOS TESTS
TEMA 11. LA FIABILIDAD DE LOS TESTS 11.1. Métodos empíricos para estimar el coeficiente de Fiabilidad 11.2. Factores que afectan al Coeficiente de Fiabilidad 11.3. Interpretación del Coeficiente de Fiabilidad
Más detallesINTERPRETACIÓN DE IMÁGENES DE RADARES METEOROLÓGICOS. Juan Manuel Sancho Avila, M.Carmen Romero Palomino
INTERPRETACIÓN DE IMÁGENES DE RADARES METEOROLÓGICOS Juan Manuel Sancho Avila, M.Carmen Romero Palomino La fiabilidad de las predicciones del tiempo a corto y medio plazo (para mañana y los próximos días)
Más detallesConstrucción de una línea perpendicular, dado un punto y una línea. 1. Dibuja una línea horizontal y un punto por encima de esa línea.
Materia: Matemática de Séptimo Tema: Rectas Perpendiculares Qué piensas cuando te dicen que dos líneas forman en un ángulo recto? Qué terminología usarías para describir a estas líneas? Después de revisar
Más detallesUniversidad Tec Milenio: Profesional IO04001 Investigación de Operaciones I. Tema # 6. revisado
IO04001 Investigación de Operaciones I Tema # 6 Introducción al método simplex matricial o revisado Objetivos de aprendizaje Al finalizar el tema serás capaz de: Emplear el Método simplex Matricial para
Más detallesPRUEBA DE NIVEL DE ACCES
PRUEBA DE NIVEL DE ACCES NOMBRE Y APELLIDOS:... 1. Microsoft Access es: Una base de datos relacional. Una base de datos no relacional. Una base de datos documental. Ninguna de las afirmaciones es correcta.
Más detallesTEMA 4: EL TIEMPO Y EL CLIMA
TEMA 4: EL TIEMPO Y EL CLIMA 1. LA ATMÓSFERA La atmósfera es la capa de gases que envuelve a la Tierra. La atmósfera está formada por dos gases: El nitrógeno El oxígeno. La atmósfera se divide en cinco
Más detallesTablas Hash y árboles binarios
Tablas Hash y árboles binarios Algoritmos Tablas hash Árboles Binarios Árboles Balanceados Tablas Hash Introducción Las tablas hash son estructuras tipo vector que ayudan a asociar claves con valores o
Más detallesTEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas.
TEMA 11 F MATEMÁTICOS TEMA 11 Autovalores y autovectores Diagonalización y formas canónicas 1 Introducción Definición 1 (Matrices semejantes) Sean A y B dos matrices cuadradas de orden n Decimos que A
Más detallesPROGRAMACION ENTERA. M. en C. Héctor Martínez Rubin Celis 1
M. en C. Héctor Martínez Rubin Celis PROGRAMACION ENTERA En muchos problemas prácticos, las variables de decisión son realistas únicamente si estas son enteras. Hombres, máquinas y vehículos deben ser
Más detallesINFORMACIÓN SOBRE LA PRUEBA DE ACCESO (PAU) A LA UNIVERSIDAD DE OVIEDO. CURSO 2015/2016
INFORMACIÓN SOBRE LA PRUEBA DE ACCESO (PAU) A LA UNIVERSIDAD DE OVIEDO. CURSO 2015/2016 Materia: MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II 1. COMENTARIOS Y/O ACOTACIONES RESPECTO AL TEMARIO EN RELACIÓN
Más detallesInstituto tecnológico de Minatitlán. Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal
Instituto tecnológico de Minatitlán Investigación de operaciones Ing. Erika Lissette Minaya mortera Unidad 3: programación no lineal Alejandra de la cruz francisco Ingeniería en sistemas computacionales
Más detallesFM 94 BUFR. Tiempo presente
0 20 003 Tiempo presente 00 49 Sin precipitaciones en la estación en el momento de la observación 00 19 Sin precipitación, niebla, niebla helada (excepto para 11 y 12), tempestad de polvo, tempestad de
Más detallesTareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR
Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja
Más detallesCuál es la frecuencia de acceso de una memoria de acceso aleatorio con un tiempo de acceso de 80 nseg. y un tiempo de ciclo de 100 nseg.?.
Cuál es la frecuencia de acceso de una memoria de acceso aleatorio con un tiempo de acceso de nseg. y un tiempo de ciclo de nseg.?. f A Hz t 9 C seg Petición de lectura t A Información disponible t C Información
Más detallesLos Elementos Indispensables en la Formación de Intérpretes
1 Los Elementos Indispensables en la Formación de Intérpretes Sam H. Ham, Ph.D. Department of Conservation Social Sciences University of Idaho USA Presentación al Seminario para la Interpretación Natural
Más detallesEstándares de Contenido Sencillos de Entender Para Padres y Estudiantes: Matemáticas Estándares del Kindergarten de Matemáticas
Estándares de Contenido Sencillos de Entender Para Padres y Estudiantes: Matemáticas Estándares del Kindergarten de Matemáticas 1.0 Sentido Numérico Puedo comparar grupos y saber si son iguales, mayores
Más detallesSumar datos con las funciones SUMAR. SI Y SUMAR.SI.CONJUNTO
2. 3. EFECTUAR SUMAS DE DATOS En esta sección aprenderá a sumar los datos de una hoja en función de los criterios y condiciones que usted defina, así como a trabajar con fórmula matricial es. 1 Sumar datos
Más detalles5 Relaciones entre variables.
ANÁLISIS EPLORATORIO DE DATOS 39 ANÁLISIS EPLORATORIO DE DATOS 40 Relaciones entre variables..1 Ejercicios. Ejercicio.1 En una muestra de 0 individuos se recogen datos sobre dos medidas antropométricas
Más detallesCONCEPTOS FUNDAMENTALES
TEMA 8: CONTRASTES DE HIPÓTESIS PARAMÉTRICAS PRIMERA PARTE: Conceptos fundamentales 8.1. Hipótesis estadística. Tipos de hipótesis 8.2. Región crítica y región de aceptación 8.3. Errores tipo I y tipo
Más detallesMATEMÁTICAS Versión impresa NÚMEROS REALES
MATEMÁTICAS Versión impresa NÚMEROS REALES 1. EL CONJUNTO DE LOS NÚMEROS REALES 1.1. Números naturales El conjunto de los números naturales se representa con el símbolo. Los números naturales son los más
Más detallesPRÁCTICA No. 5 Estados del flujo en un canal
PRÁCTICA No. 5 Estados del flujo en un canal Laboratorio de Hidráulica I OBJETIVO: Observar la generación y el comportamiento de diversos estados del flujo en un canal. INTRODUCCIÓN Para poder comprender
Más detallesUna población es el conjunto de todos los elementos a los que se somete a un estudio estadístico.
Introducción a la Melilla Definición de La trata del recuento, ordenación y clasificación de los datos obtenidos por las observaciones, para poder hacer comparaciones y sacar conclusiones. Un estudio estadístico
Más detalles1. Mínimos Cuadrados.
Departamento de Matemática Aplicada CÁLCULO COMPUTACIONAL. Licenciatura en Química (Curso 2009-10) Análisis de Datos Práctica 7 Escribe en la línea de comandos las órdenes necesarias para resolver estas
Más detallesInteligencia en Redes de Comunicaciones
Universidad Carlos III de Madrid Inteligencia en Redes de Comunicaciones PRÁCTICA FINAL PREDICCIÓN METEOROLÓGICA USANDO WEKA Titulación: Ingeniería de Telecomunicación, Curso 5º Pablo Casas Muñoz Roberto
Más detallesDIAGRAMA MATRICIAL EN "L"
DIAGRAMA MATRICIAL El diagrama matricial (DM) es una herramienta cuyo objetivo es establecer puntos de conexión lógica entre grupos de características, funciones o actividades, reapretándolos gráficamente.
Más detallesESTUDIO SOBRE LA BONDAD DEL ÍNDICE DE RIESGO DE INCENDIOS FORESTALES UTILIZADO EN LA CAMPAÑA NACIONAL DE APOYO A LA LUCHA CONTRA INCENDIOS.
ESTUDIO SOBRE LA BONDAD DEL ÍNDICE DE RIESGO DE INCENDIOS FORESTALES UTILIZADO EN LA CAMPAÑA NACIONAL DE APOYO A LA LUCHA CONTRA INCENDIOS. Inmaculada Cadenas Antonio Mestre Mª Teresa Moreno Servicio de
Más detallesTEMA 4: CONTRASTES DE HIPÓTESIS. CONCEPTOS BÁSICOS
ASIGNATURA: ESTADÍSTICA II (Grado ADE,MIM,FBS) TEMA 4: CONTRASTES DE HIPÓTESIS. CONCEPTOS BÁSICOS 4.1. Hipótesis estadística. Tipos de hipótesis 4.2. Región crítica y región de aceptación 4.3. Errores
Más detalles