Obtención de Sistemas Basados en Reglas Difusas Precisos y Compactos mediante Algoritmos Geneticos Multiobjetivo



Documentos relacionados
M.J. Gacto, R. Alcalá, F. Herrera. VI Congreso Español sobre Metaheurísticas, Algoritmos Evolutivos y Bioinspirados (MAEB'09)

Métodos evolutivos de Optimización. Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid

CAPITULO 4 JUSTIFICACION DEL ESTUDIO. En este capítulo se presenta la justificación del estudio, supuestos y limitaciones de

DESCRIPCIÓN DE LA METODOLOGÍA UTILIZADA EN EL PROGRAMA DE CESTAS REDUCIDAS ÓPTIMAS

x

ETSIINGENIO 2009 DIBUJO DE GRAFOS MEDIANTE ALGORITMOS GENÉTICOS

Elementos requeridos para crearlos (ejemplo: el compilador)

Estas visiones de la información, denominadas vistas, se pueden identificar de varias formas.

Capítulo 12: Indexación y asociación

Algoritmos Genéticos. Introduccion a la Robótica Inteligente

Metodología básica de gestión de proyectos. Octubre de 2003

Estimación de una probabilidad

Seis Sigma. Nueva filosofía Administrativa.

Práctica 5. Curso

1.1. Introducción y conceptos básicos

H E R R A M I E N T A S D E A N Á L I S I S D E D A T O S HERRAMIENTAS DE ANÁLISIS DE DATOS

Análisis y cuantificación del Riesgo

3º Grado Educación Infantil Bilingüe Números. Método Singapur y F. Bravo E R

Diseño orientado al flujo de datos

Control Estadístico del Proceso. Ing. Claudia Salguero Ing. Alvaro Díaz

capitulo3 MARCO TEÓRICO Para el diseño de la reubicación de los procesos se hará uso de la Planeación

GUÍA DEL PROFESOR CONSUMO DE ENERGÍA ELÉCTRICA EN UNA CASA

El objetivo principal del presente curso es proporcionar a sus alumnos los conocimientos y las herramientas básicas para la gestión de proyectos.

Gestión de proyectos

Introducción a la Computación Evolutiva

Optimización de Procesos

Aplicación de la inteligencia artificial a la resolución del problema de asignación de estudiantes del departamento de PDI

Operación Microsoft Access 97

Algoritmos Genéticos.

Indicaciones específicas para los análisis estadísticos.

PRUEBAS DE SOFTWARE TECNICAS DE PRUEBA DE SOFTWARE

GANTT, PERT y CPM. Figura 5.3: Carta GANTT 3.

Algoritmos Genéticos Y

Documento diseño de evaluación en términos de comparabilidad entre grupos de tratamiento y control

SOFTWARE DE CONTROL DE CALIDAD DE MANTENIMIENTO Y LIMPIEZA

Capítulo 5: METODOLOGÍA APLICABLE A LAS NORMAS NE AI

5.4. Manual de usuario

ESTIMACIÓN. puntual y por intervalo

Tema 3. Medidas de tendencia central Introducción. Contenido

Programación Genética

Movimiento a través de una. José San Martín

Capítulo 5: Pruebas y evaluación del sistema. A continuación se muestran una serie de pruebas propuestas para evaluar varias

ESTIMACION DE INTERVALOS DE CONFIANZA

CAPÍTULO VI PREPARACIÓN DEL MODELO EN ALGOR. En este capítulo, se hablará acerca de los pasos a seguir para poder realizar el análisis de

Análisis de medidas conjuntas (conjoint analysis)

Introducción a Protégé

Conclusiones. Particionado Consciente de los Datos

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia.

EL DISEÑO FACTORIAL COMPLETO 2 k

DE VIDA PARA EL DESARROLLO DE SISTEMAS

Servicio de administración de pautas publicitarias en Internet

CONSULTAS CON SQL. 3. Hacer clic sobre el botón Nuevo de la ventana de la base de datos. Aparecerá el siguiente cuadro de diálogo.

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología

MANUAL DE USUARIO SISTEMA DE ALMACEN DIF SONORA

La ventana de Microsoft Excel

Guías _SGO. Gestione administradores, usuarios y grupos de su empresa. Sistema de Gestión Online

Media vs mediana vs moda Cual medida de tendencia central es mas adecuada? MEDIA conveniencias:

ESTUDIAR MATEMATICA EN CASA

4.Diseño de Bases de Datos (I)

Mantenimiento Limpieza

PERFIL DEL PUESTO POR COMPETENCIAS Sepa cómo construirlo y evitar bajos desempeños posteriores

Ingeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007

Generación de funciones lógicas mediante decodificadores binarios con salidas activas a nivel alto

ÍNDICE DISEÑO DE CONTADORES SÍNCRONOS JESÚS PIZARRO PELÁEZ

HOT POTATOES: UNA NUEVA HERRAMIENTA EDUCATIVA

Conclusiones, aportaciones y sugerencias para futuros trabajos

LAS SUBCONSULTAS SQL SERVER Manual de Referencia para usuarios. Salomón Ccance CCANCE WEBSITE

PRUEBAS, CALIDAD Y MANTENIMIENTO DEL SOFTWARE

Trabajo lean (1): A que podemos llamar trabajo lean?

Adaptación al NPGC. Introducción. NPGC.doc. Qué cambios hay en el NPGC? Telf.: Fax.:

Medias Móviles: Señales para invertir en la Bolsa

Validation. Validación Psicométrica. Validation. Central Test. Central Test. Centraltest CENTRAL. L art de l évaluation. El arte de la evaluación

Nociones básicas sobre adquisición de señales

Tratamiento del Riesgo

Gestión de la Configuración

Aplicación informática de Optimización de Facturas Eléctricas (O.F.E)

ANÁLISIS DE BALANCES CON EL NUEVO PGC DE 2008

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)

BREVE MANUAL DE SOLVER

CARTILLA TIPOS DE PRESUPUESTO

Archivo de correo con Microsoft Outlook contra Exchange Server

2 EL DOCUMENTO DE ESPECIFICACIONES

MANUAL DE USUARIO DE LA APLICACIÓN DE ACREDITACION DE ACTIVIDADES DE FORMACION CONTINUADA. Perfil Entidad Proveedora

Práctica 11 SVM. Máquinas de Vectores Soporte

Técnicas de valor presente para calcular el valor en uso

TARIFAS DE VENTA Y DESCUENTOS

Criterios de Selección de Inversiones: El Valor Actual Neto y sus derivados *.

Inferencia Estadística

Capítulo 2. Técnicas de procesamiento digital de imágenes y reconocimiento de patrones.

REPASO CONCEPTOS BÁSICOS DE ESTADÍSTICA. DISTRIBUCIÓN NORMAL.

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual

Contenidos. INFORME ENCUESTA TELEFÓNICA. Curso


INTRODUCCION A LA PROGRAMACION DE PLC

SISTEMAS Y MANUALES DE LA CALIDAD

Además se recomienda su uso como herramienta de trabajo dentro de las actividades habituales de gestión.

Evaluación de la capacidad óptima de medida y alcance de la acreditación de un laboratorio de calibración

Tema 1: Test de Distribuciones de Probabilidad

CAPÍTUL07 SISTEMAS DE FILOSOFÍA HÍBRIDA EN BIOMEDICINA. Alejandro Pazos, Nieves Pedreira, Ana B. Porto, María D. López-Seijo

Transcripción:

Obtención de Sistemas Basados en Difusas Precisos y Compactos mediante Algoritmos Geneticos Multiobjetivo R. Alcalá, J. Alcalá-Fdez, M. J. Gacto y F. Herrera Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Granada, 18071 Granada, España {alcala, jalcala, herrera}@decsai.ugr.es, mjgacto@ugr.es Resumen En este trabajo se plantea el uso de Algoritmos Genéticos Multiobjetivo para la obtención de Sistemas Basados en Difusas con un buen equilibrio entre interpretabilidad y precisión. Se propone para ello un nuevo método de post-procesamiento que mediante la selección de reglas y el ajuste de las funciones de pertenencia obtenga soluciones centradas en la zona del pareto con el mejor equilibrio, aquella en la que se encuentren soluciones con el menor número de reglas posible pero que todavía presenten una alta precisión. Dicho método se basa en el bien conocido SPEA2, aplicando los operadores genéticos adecuados e incluyendo algunas modificaciones que centran la búsqueda en la zona del pareto deseada. Palabras Clave: Modelado Difuso Lingüístico, Interpretabilidad, Algoritmos Genéticos Multiobjetivo, Ajuste y Selección de. 1 INTRODUCCIÓN Uno de los problemas que últimamente centra el interés de los investigadores en el área del Modelado Difuso Lingüístico (MDL) [1], es la búsqueda de un buen equilibrio entre precisión e interpretabilidad. Por supuesto, la situación ideal sería poder satisfacer ambos criterios al más alto grado, pero llegar a tal situación es generalmente imposible puesto que son propiedades contradictorias. Una tecnica importante para mejorar la precisión de un Sistema Basado en Difusas es el ajuste de funciones de pertenencia [1, 2], que consiste en refinar una definición previa de la base de datos (BD) una vez que la base de reglas ha sido obtenida. Aunque las mejoras en precisión son importantes, usualmente se necesita que el modelo inicial tenga un número de reglas elevado para ello. En este caso, algunos trabajos [1, 2] aplican una selección de reglas junto con el ajuste de las funciones de pertenencia, aunque únicamente considerando criterios de precisión. En este trabajo, nos centramos en dicho problema mediante el uso de Algoritmos Genéticos como herramienta para optimizar los parámetros de las funciones de pertenencia y el tamaño de la base de reglas, codificando todo (reglas y parámetros) en el mismo cromosoma. Puesto que el problema es de naturaleza multiobjetivo, consideraremos Algoritmos Genéticos Multiobjetivo (AGMOs) [3] para obtener un conjunto de soluciones con distintos grados de precisión y número de reglas, usando ambas medidas como objetivos. Nuestro principal objetivo es diseñar un AGMO apropiado para este problema, ya que los AGMOs estándar pueden presentar algunos problemas, como comentamos a continuación. Normalmente un AGMO se basa en obtener un conjunto de soluciones no dominadas. Sin embargo, en este problema hay soluciones que aún perteneciendo al frente de Pareto no son interesantes. Por ejemplo, no son interesantes soluciones no dominadas con un error muy alto y un número de reglas muy bajo, ya que no presentan un buen equilibrio entre interpretabilidad y precisión. Además, al existir soluciones de este tipo en el frente de Pareto, se favorece la selección de padres con un número de reglas muy distinto para el cruce, generando hijos con baja precisión (los parámetros de ajuste son muy distintos y no tiene sentido el cruce, salvo para obtener nuevas configuraciones de las reglas seleccionadas). En nuestra propuesta, centraremos la búsqueda en la zona del pareto con soluciones que dentro de un cierto rango de precisión tengan la complejidad (número de reglas) más baja posible, intentando obtener soluciones con un bajo número de reglas pero siempre

con una alta precisión. Para ello se propone la modificación de uno de los AGMOs más conocidos, SPEA2 [11], el cual mediante la selección de reglas y el ajuste de las funciones de pertenencia nos permitirá centrarnos en la parte del pareto que contiene las soluciones precisas con el menor número de reglas posibles. También se han realizado experimentaciones con NSGA-II [6], mostrando que no es el enfoque más adecuando para este problema. En la siguiente Sección, se estudia la frontera del pareto para el problema que se ha presentado. El algoritmo SPEA2 se introduce en la Sección 3 junto con la mejora propuesta y los operadores genéticos considerados. La Sección 4 muestra el comportamiento del método propuesto en un problema real. Por último, en la Sección 6, se muestran algunas conclusiones. 2 Frontera de Pareto en el Problema de la Interpretabilidad-Precisión En esta sección, se estudia qué tipo de soluciones se podrían encontrar en la frontera de Pareto óptima para el problema de optimización del error y del número de reglas mediante el ajuste de parámetros y la selección de reglas. De esta manera podremos obtener una aproximación del Pareto óptimo y determinar hacia qué zona queremos ir. Como se ha dicho, el ajuste de funciones de pertenencia normalmente necesita que el modelo inicial tenga un número de reglas elevado para llegar a un nivel de precisión adecuado. Para conseguir que este conjunto de reglas inicial sea suficiente se suelen utilizar métodos que aseguren un nivel de cubrimiento generalmente más alto de lo que sería necesario. De esta forma también se podrían obtener reglas que aunque inicialmente son necesarias, una vez aplicado el ajuste sean innecesarias o incluso dificulten un buen ajuste de las demás. Así, podríamos encontrarnos con los siguientes tipos de reglas: malas (erróneas o conflictivas), que dificultan el buen funcionamiento del sistema; redundantes o irrelevantes, que no mejoran significativamente el rendimiento del sistema; complementarias que complementan a otras mejorando levemente el rendimiento del sistema; importantes que son necesarias para que el sistema presente un rendimiento razonable. Teniendo en cuenta la posible existencia de estos tipos de reglas y distintas configuraciones de reglas y parámetros de ajuste, podemos distinguir las siguientes zonas en el espacio de los objetivos: Zona de Malas, que contiene soluciones con reglas malas. En esta zona no existiría frente de Pareto ya que al quitar este tipo de reglas mejoraría la precisión y dichas soluciones serían dominadas por otras. Zona de Redundantes o irrelevantes, formada por soluciones que ya no contienen reglas malas pero que aún mantienen reglas redundantes e irrelevantes. Quitando este tipo de reglas la precisión apenas se vería afectada. Zona de Complementarias, formada por soluciones sin reglas malas ni redundantes. A medida que se quiten este tipo de reglas la precisión bajaría suavemente. Zona de Importantes, formada por soluciones únicamente con las reglas imprescindibles. A medida que se quiten este tipo de reglas la precisión se verá fuertemente afectada. En la gráfica 1, podemos ver una aproximación del pareto óptimo para el problema de ajuste y selección de reglas difusas con el doble obtetivo de simplicidad y precisión. En dicha gráfica se muestran las distintas zonas del espacio de los objetivos junto con la zona del pareto deseada para encontrar soluciones con un buen equilibrio entre interpretabilidad y precisión. Esta zona se corresponde con la zona de reglas complementarias, es decir, deseamos quitar todas las reglas posibles sin afectar seriamente la precisión del modelo finalmente obtenido. 0 - ERROR + Malas Redundantes + - Complementarias Importantes REGLAS 0 Zona del pareto deseada Frontera del pareto Figura 1: Frontera de Pareto. Teniendo en cuenta todo lo expuesto, el AGMO considerado no debe obtener todo el frente de Pareto, puesto que esto dificulta la obtención de soluciones precisas fomentando el cruce de soluciones con distintas configuraciones de reglas, que consiguen el óptimo con parámetros muy distintos en las funciones de pertenencia. En la siguiente sección se presenta una modificación de SPEA2 [11] con el objetivo de dirigir la búsqueda hacia la zona deseada.

3 Algoritmo SPEA2 Orientado a Precisión En esta sección, en primer lugar presentamos las bases de SPEA2 [11], y a continuación, describimos el esquema de codificación y los operadores utilizados para la implementación del algoritmo. Por último, se proponen los cambios necesarios para orientar la búsqueda hacia la zona deseada. 3.1 SPEA2 El algoritmo SPEA2 [11] (Strength Pareto Evolutionary Algorithm for multiobjetive optimization) es una de las técnicas más utilizadas en la resolución de problemas multiobjetivo. Éste se diferencia de otros AG- MOs en varios aspectos, entre los cuales hay dos de gran importancia: Incorpora una estrategia fina de asignación del fitness que considera, para cada individuo, el número de los individuos que domina y el número de los individuos por los cuales es dominado. Utiliza la técnica del vecino más cercano para la valoración de la densidad, dirigiendo la búsqueda en forma más eficiente. Según la descripción de los autores en [11] el bucle principal de SPEA2 consta de los siguientes pasos: Entrada: N (tamaño de la población), N (tamaño de la población externa), T (maximo número de generaciones). Salida: A (conjunto de no dominados). 1. Crear la población inicial P 0 y una población externa vacia P 0 =. 2. Calcular el fitness de los individuos de P t y P t. 3. Copiar los no dominados de P t P t en P t+1. Si P t+1 > N se aplica el operador de truncamiento. Si P t+1 < N se relleca con dominados de P t P t. 4. Si t T, se devuelve A y acaba la ejecución. 5. Aplicar torneo binario con reemplazamiento en P t+1 hasta completar la población de padres. 6. Aplicar cruce y mutación para construir P t+1. Volver al Paso 2 con t = t + 1. 3.2 Esquema de codificación y inicialización Se utiliza un esquema de codificación doble (selección de reglas más ajuste de parámetros): C p = C p S Cp T La parte C S está formada por cadenas de binarias de longitud m (numero inicial de reglas). Cada gen tendrá el valor 1 o 0 indicando si la correspondiente regla es o no seleccionada: C p S = (c S1,..., c Sm ) c Si {0, 1}. La parte C T tiene un esquema de codificación real, siendo m i el número de etiquetas de cada una de las n variables que componen la BD. C i = (a i 1, b i 1, c i 1,..., a i m i, b i m i, c i m i ), i = 1,..., n, C p T = C 1C 2... C n. La población inicial se obtiene de la siguiente forma: Para la parte C T, se incluye la BD inicial como primer individuo. El resto de individuos son generados aleatoriamente dentro de los respectivos intervalos de variación. Dichos intervalos se calculan a partir de la BD inicial. Para cada función de pertenencia C j i = (aj, b j, c j ), los intervalos de variación se calculan de la siguiente forma: [I l a j, I r a j ] = [a j (b j a j )/2, a j + (b j a j )/2] [I l b j, I r b j ] = [b j (b j a j )/2, b j + (c j b j )/2] [I l c j, I r c j ] = [c j (c j b j )/2, c j + (c j b j )/2] En la parte C S todos los genes toman el valor 1 en todos los individuos de la población inicial. 3.3 Operadores de cruce y mutación El operador de cruce depende de la parte del cromosoma donde sea aplicada: En la parte C T, se considera el cruce BLX-0.5 [8]. En la parte C S, se utiliza el cruce HUX [7]. Finalmente, se generan 4 descendientes combinando dos hijos de la parte C S con dos hijos de la parte C T (los dos mejores reemplazan a los padres). El operador de mutación cambia aleatoriamente el valor de un gen en la parte C S y en la parte C T con probabilidad P m. 3.4 Modificaciones Aplicadas sobre SPEA2 Para conseguir que la búsqueda se centre en la zona del frente de Pareto que nos interesa, maxima precisión con el menor número de reglas posibles, se proponen dos modificaciones con el objetivo de ejercer mayor presión selectiva en aquellas soluciones que tienen una mayor precisión. Los cambios propuestos se describen a continuación:

Reiniciar la población a la mitad de la ejecución del algoritmo, manteniendo el individuo con mejor precisión como único individuo en la población externa (P t+1 con tamaño 1) y generando todos los individuos de la población (P t+1 ) exáctamente con las mismas reglas que el mejor individuo y con parámetros aleatorios dentro de los intervalos de variación. Esta operación se realizaría en el paso 4 para después volver al paso 2 con t = t + 1. De esta forma se centra la búsqueda únicamente en la zona del pareto que nos interesa (soluciones parecidas en una zona de alta precisión). En cada paso del algoritmo (antes y después del restart) se va decrementando el número de soluciones de la población externa (P t+1 ) consideradas para aplicar el torneo binario, focalizando la selección en aquellos individuos con mejor precisión. Para ello se ordenan las soluciones de mejor a peor precisión y se reduce progresivamente el número de soluciones consideradas desde el 100% al 50% a medida que van pasando el número de generaciones de cada paso. También hay que destacar que la forma de crear la parte C S para las soluciones de la población inicial favorece una extracción progresiva de las reglas que no mejoren con el ajuste de los parámetros, por medio de la mutación en un principio, y después por el cruce. 4 Resultados Experimentales Para analizar el funcionamiento del método propuesto, hemos escogido un problema real [5], que consiste en estimar los costos de mantenimiento de redes eléctricas de media tensión a partir de 4 variables de entrada. Los métodos estudiados se presentan en la Tabla 1. El método WM [10] es utilizado como método simple para la generación del sistema inicial. Los métodos T y S realizan el ajuste de parámetros y selección de reglas respectivamente. TS es la unión de T y S en un mismo algoritmo. Todos ellos consideran como único objetivo la precisión del modelo. El resto son AGMOs con y sin las modificaciones propuestas (todos realizan selección de reglas y ajuste de parámetros con dos objetivos, precisión y número de reglas). Las particiones lingüísticas consideradas tendrán cinco términos lingüísticos con forma triangular (número con el que los métodos presentan el mejor comportamiento). Se utiliza el centro de gravedad ponderado por el grado de emparejamiento como operador de defuzzificación y la t-norma del mínimo como operador de implicación y conjunción. Los valores de los parámetros utilizados en todos los experimentos presentados son: 200 de longitud de la población, 61 de Tabla 1: Métodos analizados. Ref. Método Descripción [10] WM Wang & Mendel [2] WM+T Ajuste de Parámetros [2] WM+S Selección de [2] WM+TS Ajuste y Selección de [11] SPEA2 Algoritmo SPEA2 SPEA2 ACC Modificación de SPEA2 orientada a precisión (accuracy oriented) [6] NSGAII Algoritmo NSGAII NSGAII ACC Modificación de NSGAII orientada a precisión (accuracy oriented) longitud de la población externa (para el caso del algoritmo SPEA2 y SPEA2 ACC ), 0 evaluaciones y 0.2 como probabilidad de mutación por cromosoma. 4.1 Descripción del Problema Estimar los costos de mantenimiento de la red eléctrica de media tensión de una ciudad [5] es un problema complejo pero, a la vez, muy interesante. Dado que es muy difícil obtener una medición real, la consideración de modelos resulta tremendamente útil. Estas estimaciones permiten a las compañías eléctricas justificar sus gastos. Además, el modelo debe poder explicar cómo se calcula un valor específico para una determinada ciudad. Nuestro objetivo será el de relacionar el costo de mantenimiento con cuatro características: suma de las longitudes de todas las calles de la ciudad, área total de la ciudad, área ocupada por edificios, y energía suministrada a la ciudad. Para ello disponemos de estimaciones de costos de mantenimiento basadas en un modelo de una red eléctrica óptima para cada ciudad, en una muestra de 1.059 ciudades. En los distintos experimentos, se trabaja con un modelo de validación cruzada con 5 particiones de datos, esto es, 5 particiones aleatorias al 20%, y la combinación de cuatro particiones (80%) como entrenamiento y una partición como test. Así se tienen 5 particiones al 80% y 20% en entrenamiento y test. 4.2 Resultados y Análisis Para cada partición, todos los modelos evolutivos se ejecutan 6 veces, y se muestran los resultados medios del error para las 30 ejecuciones de cada algoritmo. En el caso de los métodos con enfoque multiobjetivo (los cuatro últimos), las medias han sido obtenidas considerando la solución más precisa de cada pareto obtenido. Los algoritmos propuestos se han comparado con varios métodos guiados por un único ob-

Tabla 2: Resultados obtenidos por los métodos estudiados Método #R ECM ent σ ent t-test ECM test σ test t-test WM 57605 2841 + 57934 4733 + WM+T 18602 1211 + 22666 3386 + WM+S 40.8 41086 1322 + 59942 4931 + WM+TS 41.9 14987 391 + 18973 3772 + SPEA2 33 13272 12 + 17533 3226 + SPEA2 ACC 34.5 11081 1186 * 14161 2191 * NSGAII 41.0 14488 9 + 18419 3054 + NSGAII ACC 48.1 16321 1636 + 20423 3138 + + Error - 1 2 3 4 5 SPEA2 45 35 25 + - 1 2 3 4 5 SPEA2acc 45 35 25 + - Nº Evaluaciones 50399 40399 30399 800 10200 7800 2600 1400 Figura 2: Frentes de Pareto de SP EA2 y SP EA2 acc. jetivo y con el conocido NSGAII [6] (con los dos objetivos anteriormente mencionados). Los resultados obtenidos se muestran en la Tabla 2, donde #R representa el número de reglas, ECM ent y ECM test el error medio en entrenamiento y test, σ la desviación típica y t-test los resultados de aplicar un test t-student (con 95% de confianza) al mejor resultado medio de la correspondiente columna comparado 1 a 1 con el resto de resultados medios. La interpretación de esta última columna es: Indica el resultado con la mejor media. + Indica un comportamiento significativamente peor que el mejor. Analizando los resultados presentados en la Tabla 2 podemos destacar los siguientes hechos: El SPEA2 ACC muestra una importante reducción del error cuadrático medio respecto al error obtenido por los métodos clásicos y NSGAII. Además mejora los resultados obtenidos por SPEA2 con sólo 1,5 reglas más. Los modelos obtenidos con SPEA2 ACC presentan muy buen equilibrio entre precisión e interpretabilidad. NSGAII y NSGAII ACC tienen un mal funcionamiento debido a que el operador de crowding hace muy dificil que se centre en la zona del pareto deseada. En las figuras 2 y 3 se puede ver la formación del pareto durante la ejecución de cada algoritmo. En la figura 2 se puede ver como hasta la mitad de la ejecución de SPEA2 ACC (antes de que se reinicie la población) va explorando para centrarse en una zona del pareto. Después de reiniciar, se vuelve a expandir el pareto para continuar en las siguientes ejecuciones centrandose en la zona del pareto con un menor número de reglas y una buena precisión. En el resto de métodos, figuras 2 y 3, se ve como el pareto va avanzando sin expandirse demasiado, no per-

+ Error - 1 2 3 4 5 6 NSGAII 45 35 25 1 2 3 4 5 6 NSGAIIacc 45 35 25 Nº Evaluaciones 50200 40600 30400 800 10400 8000 2600 1400 + - + - Figura 3: Frentes de Pareto de NSGAII y NSGAII acc. mitiéndole llegar a buenos resultados ni siquiera en el caso de NSGAII. 5 Conclusiones A la vista de los resultados se puede concluir que los modelos obtenidos por el método propuesto presentan un mejor equilibrio entre interpretabilidad y precisión. Al buscar una buena configuración de reglas (quitando sólo reglas de poca importancia) y centrarse en ajustar los parámetros para un conjunto de reglas pequeño, se han llegado a obtener modelos que presentan incluso mayor precisión que los métodos únicamente guiados por medidas de precisión. Por otro lado, el algoritmo propuesto (SPEA2 ACC ) puede ser útil para problemas que aunque de naturaleza multiobjetivo necesitan como solución no toda la frontera de Pareto sino un área especifica del mismo. Referencias [1] J. Casillas, O. Cordón, F. Herrera, L. Magdalena (Eds). Accuracy improvements in linguistic fuzzy modeling. Springer-Verlag, 2003. [2] J. Casillas, O. Cordón, M.J. del Jesus, F. Herrera. Genetic tuning of fuzzy rule deep structures preserving interpretability and its interaction with fuzzy rule set reduction. IEEE Trans. on Fuzzy Systems 13:1, Pág.1329, 2005. [3] C.A. Coello Coello, D.A. Van Veldhuizen, G.B. Lamont. Evolutionary algorithms for solving multi-objective problems. Kluwer Academic Publishers, 2002. [4] O. Cordón, F. Herrera. A three-stage evolutionary process for learning descriptive and approximate fuzzy logic controller knowledge bases from examples. Int. J. of Approximate Reasoning 17:4, Pág.369-407, 1997. [5] O. Cordón, F. Herrera, L. Sánchez. Solving electrical distribution problems using hybrid evolutionary data analysis techniques. Applied Intelligence 10, Pág.5-24, 1999. [6] K. Deb, A. Pratap, S. Agarwal, T. Meyarivan. A fast and elitist multiobjective genetic algorithm: NSGA-II. IEEE Trans. on Evolutionary Computation 6:2, Pág.182-197, 2002. [7] L.J. Eshelman. The CHC adaptive search algorithm: How to have safe search when engaging in nontraditional genetic recombination. Foundations of genetic Algorithms 1, Pág.2-283, 1991. [8] L.J. Eshelman, J.D. Schaffer. Real-coded genetic algorithms and interval-schemata. Foundations of Genetic Algorithms 2, Pág.187-202, 1993. [9] K. Narukawa, Y. Nojima, H. Ishibuchi. Modification of Evolutionary Multiobjective Optimization Algorithms for Multiobjective Design of Fuzzy Rule-Based Classification Systems. IEEE Int. Conf. on Fuzzy Systems, Pág.809-814, 2005. [10] L.X. Wang, J.M. Mendel. Generating fuzzy rules by learning from examples. IEEE Trans. on Systems, Man, and Cybernetics 22:6, Pág.1414-1427, 1992. [11] E. Zitzler, M. Laumanns, L. Thiele. SPEA2: Improving the strength pareto evolutionary algorithm for multiobjetive optimization. Evolutionary Methods for Design, Optimization and Control with Applications to Industrial Problems (EU- ROGEN 01), Pág.95-100, 2001.