Un etiquetador morfológico para el español de Cuba
|
|
- David Ramírez Gutiérrez
- hace 6 años
- Vistas:
Transcripción
1 Universidad de Oriente Facultad de Matemática y Computación Un etiquetador morfológico para el español de Cuba Tesis en opción al título de Máster en Ciencia de la Computación Presentada por: Lic. Lisette García Moya Dirigida por: Dra.C. Aurora Pons Porrata Dr.C. Leonel Ruiz Miyares Santiago de Cuba, Septiembre 2008
2 A mis padres
3 Agradecimientos Quiero dar mis más sinceros agradecimientos a todas las personas que han posibilitado la realización de esta tesis: A mis tutores: Aurora Pons Porrata y Leonel Ruiz Miyares Ambos me brindaron apoyo, consejos e ideas importantes para llevar adelante este trabajo. En especial, quiero agradecer a Aurora Pons Porrata por permitirme seguir trabajando con ella en este maravilloso mundo de la investigación, por siempre confiar en mi, y sobre todo, por enseñarme con su ejemplo que cada día podemos ser mejores. A mis compañeros de CERPAMID y DATYS los cuales han hecho posible que guarde muy buenos recuerdos de mis primeros años de trabajo. Muy especialmente quiero agrader a Tamara, Yunior, Adrian y Henry, mis amigos en todo momento. A mis padres les estoy profundamente agradecida por su inmenso cariño y su apoyo constante. Ellos son la fuente que me inspira a ser cada día mejor. A todos, muchas gracias. i
4 Resumen Debido al gran volumen de información existente en la actualidad se hace necesario desarrollar técnicas de Minería de Textos para ayudar a los usuarios a procesarla. Para esto se requiere de un conjunto de herramientas básicas del Procesamiento de Lenguaje Natural, entre las que se encuentran los etiquetadores morfológicos, los cuales son herramientas capaces de asignarle a cada palabra de un documento textual la categoría gramatical que le corresponde de acuerdo al contexto en que ésta aparece. Este trabajo se centra en la construcción de un etiquetador morfológico para el idioma español adaptado a las características propias del español de Cuba que garantice su integración con otras herramientas de análisis del lenguaje natural. En el trabajo se propone un modelo híbrido para el etiquetado que se basa en los Modelos Ocultos de Markov combinados con diversas heurísticas, diccionarios y varias técnicas de suavizado. Los experimentos se realizaron sobre dos corpus pertenecientes a dominios diferentes del conocimiento: Legal y Prensa para los cuales se obtuvo una precisión entre 95.6 % y 97.6 %, resultados que se consideran satisfactorios. Además, en la comparación realizada con dos etiquetadores para el español ampliamente utilizados en la actualidad: el TreeTagger y el FreeLing, se alcanzaron resultados superiores. ii
5 Abstract Because of the great amount of information that exists nowadays, it is necessary to develop Text Mining techniques to help users to process it. With this purpose, a set of basic tools for Natural Language Processing is required, such as morphological taggers, that is, tools which are able to provide the grammatical category for each word in a text document, according to the context in which it appears. This work focuses on the construction of a morphological tagger for the Spanish language adapted to the particular characteristics of the Cuban variant of Spanish which can be integrated with other natural language analysis tools. In this work, a hybrid model for tagging based on Hidden Markov Models combined with many heuristics, dictionaries and smoothing techniques is proposed. The experiments were carried out over two corpora containing documents from different knowledge domains: Legal and Press, for which precision values between 95.6 % and 97.6 % were obtained. In our opinion, the proposal method yields encourage results. Besides, our tagger outperformed two of the Spanish taggers which are more widely used nowadays: TreeTagger and FreeLing. iii
6 Índice general Introducción 1 1. Principales aproximaciones al etiquetado morfológico Sistemas deductivos basados en el conocimiento Sistemas inductivos basados en técnicas de aprendizaje automático Aprendizaje basado en ejemplos Aprendizaje basado en reglas de transformación Modelos de Máxima Entropía Árboles de decisión Redes Neuronales Artificiales Modelos Ocultos de Markov Sistemas híbridos Descripción del etiquetador morfológico propuesto Listado de etiquetas Arquitectura del etiquetador Descripción del segmentador Reconocimiento de fechas y horas Reconocimiento de números Reconocimiento de viñetas Reconocimiento de locuciones Reconocimiento de identificadores Reconocimiento del fin de oración Heurísticas empleadas iv
7 2.5. Proceso de desambiguación Técnicas de suavizado empleadas Tratamiento de las palabras desconocidas Lematizador Experimentos realizados Entorno experimental Análisis de la efectividad de los modelos propuestos Análisis de adaptabilidad al dominio Comparación con otros etiquetadores Conclusiones 52 Referencias bibliográficas 53 Anexo I: Tablas de etiquetas por categorías 59 Anexo II: Emparejamiento de las etiquetas del FreeLing y del TreeTagger a las nuestras 64 v
8 Introducción En los últimos años, el volumen de información digital disponible ha crecido vertiginosamente. Nuevas informaciones son generadas a tal velocidad, que es imposible su análisis manual y su exploración efectiva. Como dijo Ronen Feldman el increíble crecimiento en los últimos años de la información disponible en fuentes en línea ha sido a la vez una bendición y una maldición (Feldman and Dagan, 1995). Se hace imprescindible el desarrollo de técnicas de Minería de Textos que permitan su procesamiento automático y análisis de forma eficiente. Por Minería de Textos se entiende todas aquellas técnicas que intentan descubrir conocimiento a partir de grandes volúmenes de información textual. Dicho conocimiento no tiene por qué aparecer de forma explícita en algún documento e incluso puede surgir de relacionar el contenido de varios de ellos (Kodratoff, 1999). Estas grandes colecciones de documentos, por lo general, están formadas por textos libres, escritos en lenguaje natural, como, por ejemplo, las noticias de periódicos en línea y los correos electrónicos, aunque también podrían formar parte los códigos fuentes, las redes de bibliotecas digitales, etc. Todas las tareas de Minería de Textos requieren de herramientas básicas del Procesamiento de Lenguaje Natural (PLN) para el análisis y la comprensión de los documentos textuales. El PLN se define como una parte fundamental de la Inteligencia Artificial y su principal objetivo es lograr un perfecto análisis y entendimiento de los lenguajes humanos por parte de las máquinas. El tratamiento automático de una lengua es un problema de gran complejidad donde intervienen diversas y complejas fuentes de conocimiento como: fonética, morfología, sintaxis, semántica, pragmática, entre otras. Aunque muchas de estas fuentes de información se pueden considerar independientes, en general, sin una estrecha interrelación entre ellas, no sería posible una correcta interpretación del significado de las palabras en un documento. No obstante, los sistemas de PLN tienden a dividirse en componentes más o menos independientes entre sí, permitiendo abordar el procesamiento de una oración a través de una serie de niveles de análisis. La modularidad permite que el sistema sea flexible y que cada nivel pueda ser abordado por la técnica más adecuada en cada caso. Los niveles en los que se divide el análisis de una oración son: Análisis morfológico-léxico: transforma la cadena de caracteres de entrada en una 1
9 secuencia de unidades léxicas significativas (o tokens) haciendo uso de diccionarios y de reglas morfológicas. Análisis sintáctico: analiza la secuencia de unidades léxicas, de acuerdo a una gramática o modelo previamente definido, y produce una representación de su estructura sintáctica, en forma de árbol sintáctico, relaciones de dependencia, etc. Análisis semántico: a partir de la representación sintáctica genera otra estructura que representa el significado o sentido de una oración. Esta estructura semántica puede ser una forma lógica, una estructura de huecos, etc. Análisis contextual o pragmático: a partir de la representación semántica y teniendo en cuenta las circunstancias del contexto genera la interpretación de la oración. Dentro del nivel Análisis morfológico-léxico se encuentran los etiquetadores morfológicos, herramientas que tienen como principal objetivo determinar la categoría morfológica correcta de cada palabra de un documento según el contexto dentro de la oración en que aparezca dicha palabra. Durante los últimos años se han desarrollado muchos etiquetadores morfológicos para casi todos los idiomas, siendo el inglés el más popular. La mayoría de ellos no están disponibles de forma gratuita y algunos sólo conceden licencias de investigación sin el código fuente. Sin embargo, existen varios grupos de investigación de diferentes universidades que han puesto a disposición de todos estas herramientas de forma gratuita y en algunos casos han proporcionado, además, su código fuente. No obstante, muchas veces el conjunto de etiquetas que ofrecen como salida no se adecua lo suficiente a la tarea en la que queremos emplearlos o su integración con otras herramientas no es factible porque no fueron concebidos con este fin. En otros casos, el entrenamiento del modelo se ha realizado sobre un dominio de conocimiento específico y no se brinda la posibilidad de entrenarlos en el área del conocimiento que más se adecue al trabajo en que será empleado. Dos de los etiquetadores morfológicos más usados en la actualidad y reportados con muy buenos resultados para el español son el TreeTagger (Schmid, 1994a) desarrollado por el Instituto de Lingüística Computacional de la Universidad de Stuttgart y el FreeLing (Carreras et al., 2004) del Centro de Investigación TALP de la Universidad Politécnica de Cataluña. El TreeTagger permite etiquetar textos escritos en alemán, inglés, francés, italiano, holandés, español, búlgaro, ruso, griego, portugués y chino. Además, sólo puede ser usado con licencia de investigación, permite ser entrenado y no se ofrece su código fuente. Por su parte, el FreeLing permite etiquetar textos en español, catalán e inglés. Es gratuito, con código abierto y permite ser entrenado. Existen diferencias entre el español que se habla en Cuba y el español que se habla en otros países de habla hispana. En sentido general, en Cuba existe una esencial homogeneidad lingüística. El sistema fonológico, el morfosintáctico y también el léxico son básicamente los mismos, sobre todo en el habla culta que es la que menos varía. En este sentido, podemos afirmar que las peculiaridades socioculturales que distinguen la sociedad 2
10 cubana contemporánea han impuesto una ascendente línea de integración idiomática nacional. Son el español, las lenguas del África subsahariana y la lengua de los indocubanos las tres corrientes lingüísticas que convergen en la formación de las características del español de Cuba, visibles por lo menos en el nivel léxico de la lengua. Ahora bien, podemos afirmar que en Cuba poseemos una modalidad de lengua española que toma al español estándar como norma lingüística. Entiéndase como español estándar aquel que se emplea en América de manera general. Con éste mantiene semejanzas y diferencias. Las diferencias están dadas fundamentalmente en el nivel léxico. Palabras de origen africano como: quimbombó, jubo, biyaya, fufú, sirimba, sambumbia, cachimba, guineo, conga, etc., enriquecen nuestra variante de lengua nacional conjuntamente con jobo, macana, tranca, fotuto, butaca, hayaca, cutara, manía, batey, cacique, ñata, sobaco, guanaja, guamo, caguairán, etc., que son de origen indio. Con respecto al nivel morfológico de la lengua, no hay diferencias notables con las otras variantes de español de otros países. Sin embargo, una peculiaridad morfológica pudiera ser mencionada: vos existe muy poco en Cuba, tú se usa en forma de confianza y usted cuando la relación requiere un trato cortés, formal y de respeto. Teniendo en cuenta las características propias del español de Cuba mencionadas, es de interés poder contar con un etiquetador morfológico apropiado, capaz de lidiar con estas peculiaridades. Con este fin nos propusimos construir un nuevo etiquetador morfológico enfocado principalmente al español de Cuba. En Cuba sólo tenemos como antecedente de este tipo de estudio el realizado en el Centro de Lingüística Aplicada de Santiago de Cuba, donde se desarrolló el etiquetador gramatical ETIPROCT (ETIquetador y PROcesador de Corpus Textuales) con resultados satisfactorios (Ruiz-Miyares, 2001). Sin embargo, el conjunto de etiquetas es limitado y no permite obtener la información morfológica ni el lema de cada palabra. Se define como lema a la forma canónica de una palabra. Una misma palabra podría tener más de un lema, por ejemplo, el lema de la palabra camino, es camino si ésta es un sustantivo o caminar si es un verbo. Este trabajo tiene como objetivo desarrollar un etiquetador morfológico multiplataforma para el idioma español adaptado a las características propias del español de Cuba que garantice su integración con otras herramientas de análisis del lenguaje natural, y realizar una análisis comparativo de nuestra propuesta con el TreeTagger y el FreeLing. La tesis está estructurada en una introducción, tres capítulos, las conclusiones y dos anexos. En el capítulo 1 Principales aproximaciones al etiquetado morfológico se explican los modelos más empleados en el etiquetado de documentos textuales, cuáles son sus presupuestos y las ventajas y desventajas de cada uno. El capítulo 2 Descripción del etiquetador morfológico propuesto describe las principales características del etiquetador que proponemos. En el capítulo 3 Experimentos realizados se describen algunas de las pruebas realizadas para medir la calidad de los diferentes modelos propuestos y determinar cuál es la variante adecuada para ser empleada en nuestro etiquetador. Finalmente, se dan las conclusiones de nuestro trabajo y las recomendaciones para el trabajo futuro. El 3
11 anexo I describe cada una de las etiquetas con su información morfológica asociada, las cuales constituyen la salida de nuestro etiquetador morfológico, y el anexo II se refiere al emparejamiento realizado de las etiquetas de salida del TreeTagger y del FreeLing con las etiquetas propuestas, para permitir su análisis comparativo. 4
12 Capítulo 1 Principales aproximaciones al etiquetado morfológico El análisis de cualquier documento textual requiere de un conjunto de herramientas básicas del PLN entre las que se encuentran los etiquetadores morfológicos. Estas herramientas solucionan uno de los principales problemas de ambigüedad del lenguaje natural: la ambigüedad gramatical, que viene dada porque una palabra puede tener asociada más de una categoría gramatical (sustantivo, adjetivo, verbo, etc.) en dependencia de la función que desempeña en la oración. Un ejemplo de palabra ambigua es bajo, ya que en dependencia del contexto en que aparezca puede hacer función de sustantivo, adjetivo, adverbio, preposición o verbo. Por ejemplo: Yo bajo con el hombre bajo a tocar el bajo bajo la escalera. verbo adj. sust. prep. Pon el volumen de la radio más bajo. adv. Por tanto, usando técnicas de desambiguación gramatical los etiquetadores morfológicos son los encargados de determinar para cada palabra su categoría gramatical correcta de acuerdo al contexto en que aparezca en la oración; además, la salida puede venir acompañada de la información morfológica (género, número, persona, etc.). Toda esta información se puede resumir en una sola etiqueta o part-of-speech (POS, en inglés), por ejemplo: (la, AF), donde A significa que es un artículo y F que su género es femenino; (baila, VIPPIP3S), donde V indica que es un verbo, I intransitivo, P pronominal, P en forma personal, I del modo indicativo, P tiempo presente, 3 tercera persona y S número singular. En lo que sigue, definiremos contexto como un conjunto de palabras o símbolos en una vecindad de la palabra o símbolo que se está analizando, la cual llamaremos palabra foco. 5
13 Los etiquetadores morfológicos son dependientes del idioma debido a que se apoyan en el contexto donde aparece la palabra que se desea etiquetar para determinar la categoría gramatical que le corresponde. Las construcciones gramaticales pueden variar mucho de un idioma a otro. Por ejemplo, en la oración en español Quiero darte el libro rojo, si la analizamos gramaticalmente obtenemos: (Quiero, verbo en forma personal), (darte, verbo en infinitivo con enclítico), (el, artículo), (libro, sustantivo común), (rojo, adjetivo) La misma oración escrita en inglés sería I want to give you the red book : (I, pronombre personal), (want, verbo en forma personal), (to give, verbo en infinitivo), (you, pronombre personal), (the, artículo), (red, adjetivo), (book, sustantivo común) Como se puede apreciar, el orden de las palabras dentro la oración no es el mismo. Además, los etiquetadores, en su mayoría, emplean información morfológica de las palabras para construir sus etiquetas de salida y dicha información pudiera ser diferente en dependencia del idioma. Otra característica que marca la dependencia de los etiquetadores al idioma para el cual fueron concebidos, es que generalmente se auxilian de conjuntos de diccionarios. Los etiquetadores morfológicos se pueden clasificar en tres grupos en dependencia de la forma que emplean para modelar el conocimiento: los deductivos basados en el conocimiento, los inductivos basados en técnicas de aprendizaje automático (o basados en corpus) y los híbridos (figura 1.1). En los primeros, también conocidos como aproximaciones lingüísticas, el conocimiento es modelado por expertos (lingüistas) utilizando formalismos gramaticales, generalmente en forma de reglas o restricciones. Los segundos consideran que el conocimiento se puede inferir a partir de la experiencia, por lo que construyen un modelo computacional del lenguaje a partir de ejemplos. Generalmente emplean métodos estocásticos o probabilísticos para modelar el conocimiento, aunque podrían emplearse otras técnicas. Estos métodos se pueden clasificar a su vez en supervisados o no supervisados, en dependencia si el conjunto de entrenamiento está anotado con información lingüística o no. Por último, los modelos híbridos combinan información estadística con reglas gramaticales construidas de forma manual o automática tratando de aprovechar las ventajas de los dos primeros enfoques Sistemas deductivos basados en el conocimiento Estos sistemas utilizan un conjunto de reglas de contexto con el objetivo de predecir o restringir el conjunto de categorías gramaticales de una palabra; por este motivo también se les conoce como sistemas basados en reglas. Estas reglas se definen manualmente por 6
14 Figura 1.1: Clasificación de los enfoques empleados en el etiquetado morfológico. especialistas y la cantidad puede variar desde unos pocos cientos hasta miles (Paulussen, 1992). Entre los primeros etiquetadores que se desarrollaron basados en esta aproximación, se puede mencionar el Computational Grammar Coder (Klein and Simmons, 1963) y el sistema TAGGIT (Greene and Rubin, 1971). Este último fue utilizado como un primer paso en la construcción de grandes corpus como el Brown (Francis and Kucera, 1982), aunque sólo pudo desambiguar el 77 % del mismo; el resto se hizo manualmente en un período de varios años. Otros trabajos en esta área son el de Koskenniemi, el cual empleó una aproximación basada en reglas implementada con una máquina de estados finitos (Koskenniemi, 1990) y el etiquetador DILEMA (Paulussen and Martin, 1992). El trabajo realizado por el grupo TOSCA de la Universidad de Nijmegen (van Halteren and Oostdijk, 1993), y más recientemente, el formalismo basado en Gramáticas de restricción (Constraint Grammar) (Karlsson, 1990) y su aplicación al etiquetado morfológico como es el caso del EngCG (Voutilainen, 1997), son considerados los más importantes en esta dirección. El formalismo de las Gramáticas de restricción también ha sido aplicado a otros idiomas además del inglés, como son el turco (Oflazer and Kuruöz, 1994) y el vasco (Aduriz et al., 1995). La principal ventaja de las aproximaciones lingüísticas es que construyen un modelo del lenguaje desde el punto de vista lingüístico, por lo que se pueden incluir muchas y complejas fuentes de información, difíciles de capturar de manera automática. Este hecho las hace más expresivas, por lo que en general, suelen proporcionar mejores prestaciones en tareas de desambiguación si se comparan con otro tipo de aproximaciones. Sin embargo, estos sistemas no funcionan de forma eficaz y robusta cuando se trata de aplicaciones de amplia cobertura que trabajan con grandes volúmenes de información sin ningún tipo de restricción (Molina, 2004). Otra limitación es que son muy costosos, debido a que son muy dependientes del idioma para el cual han sido diseñados, las reglas de contexto se deben 7
15 confeccionar manualmente y la casuística a considerar es muy grande; en muchas ocasiones se presentan situaciones que no habían sido contempladas. Todo esto dificulta mucho su portabilidad de una tarea a otra, y mucho más el paso de un idioma a otro Sistemas inductivos basados en técnicas de aprendizaje automático Estos sistemas consideran que el conocimiento lingüístico se puede inferir a partir de la experiencia a menudo recogida en corpus textuales; por eso son conocidos también como sistemas basados en corpus. Se clasifican en supervisados o no supervisados en dependencia de si los ejemplos que emplean durante su etapa de entrenamiento o aprendizaje contienen información lingüística o no. Las diferentes aproximaciones basadas en esta técnica se diferencian unas de otras en el método de aprendizaje y en la complejidad del modelo que construyen. A diferencia de los etiquetadores basados en el conocimiento, los basados en técnicas de aprendizaje automático pueden manipular gran cantidad de documentos textuales sin imponer restricción en cuanto a su dominio. Los sistemas inductivos se han aplicado con éxito en el etiquetado morfológico. Se conoce como corpus textual a una amplia colección de documentos textuales en la cual se debe recoger una muestra significativa del uso del idioma sobre el cual se desea trabajar. El valor de un corpus textual aumenta con la cantidad y calidad de la información recopilada, así como con la diversidad del dominio y el uso de los términos lingüísticos empleados en la colección. En la actualidad existe una gran cantidad de corpus para el inglés, entre los que podemos mencionar el WSJ (300 Mb de textos de inglés americano), el British National Corpus con 100 millones de palabras, el Penn Treebank que contiene 3 millones de palabras analizadas sintácticamente; para el castellano, el más importante es el CREA recopilado por la RAE (Màrquez et al., 1998a), disponible sólo para consultas en línea. Se conocen como etiquetadores supervisados aquellos que requieren que su data de entrenamiento se encuentre etiquetada con las categorías gramaticales para poder extraer de ellas las características representativas del idioma. Por lo general, el etiquetado de los corpus se realiza manualmente, lo cual es un trabajo costoso y que consume mucho tiempo. No obstante, siempre es menos costoso que la construcción de miles de reglas manualmente como ocurre en los sistemas deductivos, y no se corre el riesgo de que se queden sin considerar algunas estructuras gramaticales del dominio en que se desee trabajar. Por su parte, los etiquetadores no supervisados son aquellos que no requieren de un corpus etiquetado previamente, pero necesitan de métodos matemático-computacionales sofisticados para obtener la información requerida en el etiquetado. La ventaja de los etiquetadores supervisados radica en la obtención de coeficientes estadísticos consistentes. Cuanto más amplio sea el corpus textual etiquetado, más fiables resultan los cálculos estadísticos posteriores. Por otro lado, los etiquetadores no supervisa- 8
16 dos reducen drásticamente el tiempo de entrenamiento, pero sus resultados no tienen la alta fiabilidad de los supervisados (van Guilder, 1995). Existen muchos métodos inductivos que han sido empleados con éxito para resolver el problema de la desambiguación gramatical, entre ellos podemos mencionar el aprendizaje basado en ejemplos, el aprendizaje basado en reglas de transformación, los modelos de máxima entropía, los árboles de decisión, las redes neuronales y los modelos de Markov Aprendizaje basado en ejemplos Al aprendizaje basado en ejemplos (Memory-based Learning, MBL) también se le conoce por basado en similitud, basado en memoria, etc. Es un método supervisado que basa su funcionamiento en el principio de similitud. Los ejemplos se representan como vectores de valores de rasgos asociados a una categoría gramatical. La regla del k-vecino más cercano es un caso particular de MBL. Durante el entrenamiento, el conjunto de ejemplos (conjunto de entrenamiento) se presenta de forma incremental al clasificador y se almacena en memoria. Durante la etapa de prueba, la clasificación de una nueva observación X se realiza utilizando una función de similitud, mediante la cual se obtienen los k ejemplos más similares a la nueva observación. Finalmente, la clase de X es la clase más frecuente entre los ejemplos más similares obtenidos (Daelemans et al., 1996). El rendimiento de los sistemas basados en memoria depende en gran medida de la distancia (o la medida de similitud) empleada. La medida de distancia más sencilla se muestra en la ecuación 1.1, donde X = (x 1, x 2,..., x n ) y Y = (y 1, y 2,..., y n ) son ejemplos a ser comparados y δ (x i, y i ) es la distancia entre los valores del i-ésimo rasgo de X y Y. (X, Y ) = n δ (x i, y i ) (1.1) i=1 La distancia entre dos valores se puede calcular según la ecuación 1.2 (Aha et al., 1991). δ (x i, y i ) = { 0 si xi = y i 1 en otro caso (1.2) Esta medida se conoce como IB1. En la misma, todos los rasgos que describen a un ejemplo se consideran igualmente importantes para el problema de la clasificación, pero esto no se cumple siempre. Daelemans propone pesar cada rasgo con su ganancia de información, es decir, con un número que expresa la cantidad promedio de reducción de la entropía del conjunto de entrenamiento cuando se conoce el valor del rasgo (ecuación 1.7). A esta nueva ecuación se le conoce como IB-IG. La entropía de la información del conjunto de entrenamiento (D) es igual al número de 9
17 bits de información necesario para conocer la categoría dado un ejemplo. Ésta se calcula mediante la ecuación 1.3, donde p i (la probabilidad para la categoría c i ) se estima por su frecuencia relativa en el conjunto de entrenamiento. H(D) = i p i log 2 p i (1.3) Por cada rasgo, conocido su valor, se calcula cuál es su ganancia de información. Para esto, se calcula la entropía de información promedio para este rasgo y se substrae de la entropía de la información del conjunto de entrenamiento. Para calcular la entropía de información promedio para un rasgo (ecuación 1.4), se toma la entropía de información promedio del conjunto de entrenamiento restringido a cada posible valor del rasgo. La expresión D [f=v] se refiere a los ejemplos en el conjunto de entrenamiento que tienen el valor v para el rasgo f, V f es el conjunto de los posibles valores para el rasgo f y v V f. Finalmente, D es el número de ejemplos en el conjunto de entrenamiento. H(D [f] ) = H(D [f=vi ]) D [f=vi] D v i V f (1.4) Una desventaja de esta ecuación es que tiende a favorecer a los rasgos con muchos valores. Esto se puede rectificar normalizando la ganancia de información de un rasgo, es decir, dividiendo éste por el número de bits requeridos para determinar el rasgo (el cual depende de su número de valores). split info(f) = D [f=vi] D v i V f log 2 D [f=vi ] D (1.5) La ganancia de información del rasgo f se obtiene con la ecuación 1.6, y se usa como el peso para el rasgo durante el cálculo de la distancia. G(f) = H(D) H(D [f] ) split info(f) (1.6) Finalmente, la distancia de la ecuación 1.1 se modifica para tener en cuenta el peso asociado a cada rasgo de la siguiente forma: (X, Y ) = n G (f i ) δ (x i, y i ) (1.7) i=1 El aprendizaje basado en ejemplos requiere mucho espacio en memoria para almacenar todos los ejemplos vistos durante la etapa de entrenamiento. Por otro lado, el proceso de 10
18 clasificación presenta un excesivo costo computacional, ya que cada instancia a ser clasificada se debe comparar con todos los ejemplos almacenados. Sin ninguna optimización, el método resultaría excesivamente costoso. El formalismo más ampliamente utilizado para la representación de los ejemplos son los árboles de decisión. Daelemans propone el algoritmo IGTree (Daelemans et al., 1996) para optimizar tanto la representación, comprimiendo cada ejemplo base mediante una estructura de árbol, como la clasificación, la cual se ve muy favorecida por la estructura elegida. En el etiquetado morfológico, los rasgos que representan a cada palabra dependen de si ésta es conocida o no. Una palabra se considera conocida si apareció durante la etapa de entrenamiento. El vector de rasgos para las palabras conocidas contiene: la categoría gramatical desambiguada de las dos palabras precedentes a la palabra foco, la clase de ambigüedad de la palabra foco y la clase de ambigüedad de la palabra posterior a la palabra foco. Para las palabras desconocidas los rasgos del vector son: la categoría gramatical de la palabra precedente a la palabra foco, la primera letra y el sufijo (3 últimas letras) de la palabra foco y la clase de ambigüedad de la palabra posterior a la palabra foco Aprendizaje basado en reglas de transformación En 1992, Eric Brill (Brill, 1992) introdujo el formalismo de aprendizaje basado en reglas de transformación guiado por el error (Transformation-Based Error-Driven learning, TBL), el cual es un modelo supervisado que consiste en el aprendizaje de un conjunto de reglas que tienen en cuenta un conjunto limitado de rasgos. Con este método se reducen las limitaciones más comunes de los sistemas basados en reglas; los sistemas que emplean este método son más robustos y obtienen las reglas de forma automática. Además, se plantea que presenta algunas ventajas sobre los modelos estocásticos ya que requieren almacenar menos información y las reglas que construyen son más comprensibles que grandes tablas estadísticas. Por este motivo resulta más fácil la implementación de mejoras y su portabilidad de un conjunto de etiquetas a otro, o de un dominio a otro. Estos sistemas trabajan reconociendo y corrigiendo automáticamente sus deficiencias, y de ese modo mejorando incrementalmente sus prestaciones. Este formalismo ha sido aplicado al etiquetado morfológico (Brill, 1992). El proceso de etiquetado consta de varios pasos importantes. Como primer paso, se le asigna a cada palabra su categoría gramatical más probable, la cual se estima a partir de un gran corpus anotado y no tiene en cuenta el contexto en el cual aparece dicha palabra. Este etiquetado inicial incorpora dos heurísticas para mejorar su prestación, las cuales están orientadas a trabajar con las palabras no vistas en el corpus de entrenamiento. La primera heurística consiste en considerar como nombre propio las palabras que comienzan con mayúsculas y como nombre común al resto. En la segunda, se le asigna la categoría gramatical más frecuente de las palabras que terminan con las mismas tres letras que la palabra desconocida. Como segundo paso, se compara la salida del etiquetador con las categorías gramaticales correctas del corpus de referencia obteniéndose una lista de los errores cometidos. 11
19 La lista está formada por tuplas de la forma < tag a, tag b, number >, indicando el número de veces que se cometió el error de asignarle a una palabra la categoría tag a cuando la correcta era tag b. A partir de este listado de errores se construyen las reglas y se ordenan de forma tal que al aplicarlas se minimice el error, mejorando lo más posible la calidad del etiquetador. Este proceso se repite iterativamente hasta que las mejoras estén por debajo de cierto umbral. Las reglas tienen la forma: Si una palabra tiene categoría gramatical a y su contexto es C, entonces asignarle la categoría gramatical b Si una palabra tiene categoría gramatical a y sus propiedades léxicas son P, entonces asignarle la categoría gramatical b Si una palabra tiene categoría gramatical a y una palabra en la región R tiene propiedades léxicas P, entonces asignarle la categoría gramatical b Un ejemplo de este tipo de regla para el inglés es: Cambiar la categoría infinitivo por preposición si una palabra está etiquetada como infinitivo y la siguiente como artículo El proceso de etiquetado de nuevos datos comienza con el etiquetado básico, y luego, aplica las reglas aprendidas en el orden definido en la fase de aprendizaje. Por lo general, se entrena al etiquetador con el 90 % del corpus etiquetado (corpus de entrenamiento). El 5 % del corpus se usa como corpus de referencia y el 5 % restante, como corpus de prueba. Unos años más tardes, Brill propone algunas extensiones a este paradigma (Brill, 1994). Éstas incluyen la lexicalización del etiquetador, mejores heurísticas para el etiquetado de las palabras desconocidas y la asignación de las k-mejores categorías gramaticales por palabra. La lexicalización adiciona transformaciones contextuales que tengan en cuenta a la palabra propiamente y no sólo a las categorías gramaticales como se venía haciendo tradicionalmente. Un ejemplo de este tipo de reglas para el inglés sería: Cambiar la categoría gramatical preposición por adverbio si la palabra situada dos posiciones a la derecha es as Con el propósito de mejorar la precisión del etiquetado de las palabras desconocidas, se construyeron reglas enfocadas en este propósito. De manera general, este nuevo modelo de reglas tiene en cuenta la presencia de determinados caracteres en las palabras, así como, los sufijos, los prefijos y la palabra que resulta de la eliminación de algunos caracteres al inicio o al final de la palabra desconocida. Las reglas contextuales sufren algunas modificaciones con el objetivo de permitir dar más de una categoría gramatical por palabra. 12
20 Modelos de Máxima Entropía El modelo de máxima entropía (Maximum Entropy, ME) es un modelo estadístico supervisado que tiene como objetivo maximizar la entropía de una distribución de probabilidad sujeta a ciertas restricciones. Este modelo debe ser consistente con los eventos observados durante el entrenamiento satisfaciendo las restricciones impuestas y no asume ningún conocimiento acerca de los eventos no vistos en el entrenamiento. La aplicación más relevante de este modelo al etiquetado morfológico fue desarrollada por Ratnaparkhi (Ratnaparkhi, 1996). El modelo de probabilidad se define como el par H C, donde H es el conjunto de posibles palabras y categorías gramaticales del contexto o historia y C es el conjunto de categorías gramaticales permisibles. La probabilidad de una historia h junto con una categoría gramatical c se define como: p (h, c) = θµ n j=1 α f j(h,c) j donde θ es una constante de normalización, {µ, α 1, α 2,..., α n } son los parámetros del modelo y {f 1, f 2,..., f n } son las características o rasgos que toman los valores 0 ó 1. A cada rasgo f j le corresponde un parámetro α j. El valor de un rasgo para predecir una clase c viene determinado por el contexto o historia h. Los parámetros del modelo se seleccionan de forma que se maximice la probabilidad de los datos de entrenamiento para la distribución p y se obtienen aplicando el algoritmo Escalado Iterativo Generalizado (Generalized Iterative Scaling) (Darroch and Ratcliff, 1972). La historia h i definida para la palabra foco w i, si es una palabra conocida, se define como: h i = {w i, w i 1, w i 2, w i+1, w i+2, c i 1, c i 2 } esto es: la palabra foco, las dos palabras que le preceden y suceden, y las categorías gramaticales de las dos palabras que le preceden. Si la palabra foco es desconocida no se tiene en cuenta la palabra propiamente dicha, pero sí la información morfológica relacionada con ella, que puede ser prefijos, sufijos, si contiene guiones, caracteres en mayúscula, números, entre otras. Una palabra se considera desconocida si aparece menos de 10 veces en el corpus de entrenamiento. Por ejemplo, dada la oración: Los pueblos aborígenes son los más afectados Art Sust. común Adj Verb Art Adv Adj El vector de rasgos para la palabra son, si la consideramos una palabra conocida sería: h i = {w i = son; w i 1 = aborígenes; w i 2 = pueblos; w i+1 = los; w i+2 = más; c i 1 = Adj ; c i 2 = Sust. común} 13
21 Pero si lo que se desea etiquetar es la palabra aborígenes, suponiendo que es una palabra desconocida, el vector de rasgos sería: h i = {w i 1 = pueblos; w i 2 = los; w i+1 = son; w i+2 = los; c i 1 = Sust. común; c i 2 = Art; prefijo (w i ) = a; prefijo (w i ) = ab; prefijo (w i ) = abo; prefijo (w i ) = abor; sufijo (w i ) = s; sufijo (w i ) = es; sufijo (w i ) = nes; sufijo (w i ) = enes} En este ejemplo se consideró un cardinal de hasta 4 caracteres para los prefijos y sufijos; esta cantidad puede variar en dependencia de cuánto se desee considerar. Un rasgo f j, dado (h i, c i ), debe codificar toda la información que pueda ayudar a predecir c, tal como la ortografía de la palabra, etc. Por ejemplo: { 1 si wi = el y c f j (h i, c i ) = i = Art 0 en otro caso que indica que f j toma el valor 1 si en la historia h i la palabra w i es el y está etiquetada como un artículo (Art). El proceso de etiquetado requiere de una búsqueda para enumerar las secuencias de categorías gramaticales candidatas y selecciona como respuesta aquella cuya probabilidad sea mayor. El algoritmo de búsqueda empleado se le conoce como Beam Search (Colás-Pasamontes, 2001). Este proceso se realiza básicamente mediante un algoritmo de poda basado en la programación dinámica que en cada paso considera las secuencias candidatas con mayor probabilidad Árboles de decisión Los árboles de decisión (Decision Tree) representan reglas de clasificación para determinar a qué clase pertenece un objeto de cierto dominio dentro de un conjunto de clases mutuamente excluyentes. En el ámbito del etiquetado morfológico, las clases son las diferentes categorías gramaticales. Los árboles de decisión se construyen automáticamente a partir de los datos de entrenamiento y el proceso de clasificación de un ejemplo nuevo consiste en recorrer dicho árbol desde el nodo raíz hasta un nodo hoja, en el cual se representa la clase a asignar. Algunas veces los árboles de decisión definen una probabilidad de distribución sobre el conjunto de clases; en estos casos se denominan árboles de decisión estadísticos. Estas probabilidades usualmente se estiman a partir de las frecuencias relativas, incluyendo además, algunos tipos de suavizado con el objetivo de obtener mejores estimaciones para los eventos menos representados (Màrquez, 1999). La inducción es la tarea de construir el árbol a partir de un conjunto de entrenamiento; a la familia de los algoritmos de inducción usualmente se le conoce como TDIDT (por su nombre en inglés, Top-Down Induction of Decision Trees). El algoritmo más ampliamente empleado es C4.5 (Quinlan, 1993). Relacionado con el etiquetado morfológico, Màrquez (Màrquez, 1999) propone no emplear los árboles de decisión estadísticos como clasificadores directos, sino incorporarlos como un mó- 14
22 Figura 1.2: Fragmento de un árbol de decisión. dulo estadístico dentro de algoritmos más complejos. Esta inclusión se puede llevar a cabo bajo diferentes representaciones internas: árboles de decisión, reglas con pesos, restricciones con pesos, etc., en dependencia del tipo de algoritmo de etiquetado que se vaya a emplear. En el TreeTagger (Schmid, 1994a) se estiman las probabilidades de transición usando un árbol de decisión binario (ver figura 1.2). La probabilidad de un trigrama dado (probabilidad de que una categoría gramatical se le asigne a una palabra teniendo en cuenta las dos anteriormente asignadas) se determina recorriendo el árbol desde la raíz hasta que se encuentra un nodo hoja. Por ejemplo, si quisiéramos determinar la probabilidad de que una palabra sea un sustantivo (Sust) si las palabras que le preceden son un artículo (Art) y un adjetivo (Adj ), P (Sust Art, Adj), lo primero es preguntar si la palabra que precede es Adj ; en caso de que la respuesta sea afirmativa se sigue por el camino Sí. Lo próximo es preguntar si la palabra ubicada dos posiciones a la izquierda es un Art; si la respuesta es nuevamente positiva, se llega a un nodo hoja, donde se encuentra que Sust con un 70 % es la categoría gramatical con mayor probabilidad de las posibles a ser asignadas. El árbol de decisión automáticamente determina el tamaño apropiado del contexto que se usará para estimar las probabilidades de transición. En los posibles contextos no sólo se consideran trigramas, bigramas o unigramas, sino también, otros tipos de contexto como por ejemplo: (c 1 = Adj y c 2 Sust y c 2 Prep) donde c i indica la categoría gramatical de la palabra que se encuentra i posiciones a la izquierda de la palabra que se desea etiquetar. Muchos otros investigadores han empleado los árboles de decisión al etiquetado de textos, como por ejemplo (Màrquez et al., 1998a) y (Orphanos et al., 1999) Redes Neuronales Artificiales Las redes neuronales artificiales (Artificial Neural Networks) son modelos que basan su funcionamiento en la interacción entre un gran número de simples unidades de procesamiento (neuronas), conectadas unas a otras formando una red. Cuando una neurona se activa, provoca que 15
23 neuronas vecinas se activen también, proporcionando que el nivel de actividad de la neurona sea lo suficientemente alto; por tanto, los enlaces que conectan a la neurona activada con sus vecinas adquieren un peso más fuerte que el resto de los enlaces. El conocimiento se almacena en las redes neuronales en forma de pesos que se asocian a cada enlace entre neuronas. Cuando una entrada se presenta, la salida que se produce depende de cómo dicha entrada se propaga a través de la red. Por lo tanto, el entrenamiento consiste en calcular el peso correcto para cada enlace. Un ejemplo de algoritmo de aprendizaje para el cálculo de los pesos en una red multicapas es el algoritmo de retropropagación de los errores (backpropagation) (Haykin, 1999). Cuando las redes neuronales se entrenan correctamente adquieren la habilidad de generalización, esto es, son capaces de generar salidas correctas incluso cuando la entrada nunca antes había sido vista. Las redes neuronales han sido aplicadas con éxito al etiquetado morfológico de textos. Schmid (Schmid, 1994b) presenta un etiquetador basado en una red perceptrón multicapas que emplea backpropagation como método de entrenamiento. La entrada a la red comprende toda la información que se conoce sobre la palabra actual, las a palabras que le anteceden, y las b que le siguen. Es decir, por cada categoría gramatical c j y cada a b palabras en el contexto, existe un valor de activación act ij que representa la probabilidad de que la palabra i tenga la categoría c j. En la capa de salida de la red, cada neurona se corresponde con una de las categorías gramaticales que el sistema esté considerando. Durante el entrenamiento, la red aprende a activar la neurona que representa a la categoría correcta y a desactivar las otras, por lo tanto, la activación más alta se corresponde con la categoría correcta para la palabra que se esté procesando en cada momento. Ma (Ma et al., 1999) construye una red perceptrón de 3-capas con entrada elástica. Primeramente, el contexto se considera tan grande como sea posible en aras de elevar la fidelidad del etiquetado. Luego, la longitud del contexto se reduce gradualmente si no se obtiene una respuesta única debido a la insuficiencia de los datos de entrenamiento. Marques (Marques et al., 2007) introduce una nueva forma de usar las redes neuronales, la cual consiste en enseñarla a que aprenda excepciones, las que se les adicionan en forma de reglas. Por cada regla se adicionan neuronas a una capa oculta de forma tal que solamente se activa si y sólo si la precondición de la regla se cumple. Entre otros trabajos que emplean las redes neuronales artificiales al etiquetado morfológico se pueden mencionar (Roth and Zelenko, 1998) para el inglés, (Maruf and Lua, 1996) para el chino y (Nemec, 2004) para el checo Modelos Ocultos de Markov Los modelos ocultos de Markov (Hidden Markov Models, HMM) son un método estocástico que permite modelar procesos aleatorios cuyas propiedades pueden variar en el tiempo. La teoría de los modelos de Markov fue desarrollada inicialmente por Andrei A. Markov (1913) y su primera aplicación fue de propósito lingüístico: modelar la secuencia de letras en los textos de la literatura rusa. Pero es a finales de los años 60 cuando Baum desarrolló la teoría actual de 16
24 los HMM, y a comienzos de los 70 cuando se utilizó en aplicaciones reales, en concreto, sistemas de reconocimiento del habla implementados por Baker (1975) en CMU y por Jelinek (1976) en IBM Procesos de Markov de tiempo discreto El modelo de Markov se puede definir como un conjunto de estados conectados por transiciones que tienen la propiedad de que la ley de probabilidad del desarrollo futuro del proceso depende sólo del estado y no de cómo llegó el proceso a dicho estado (Parzen, 1971). Consideremos un sistema que en cada instante de tiempo se encuentra en un determinado estado s i perteneciente al conjunto S = {s 1, s 2,..., s N } donde N es la cantidad de estados del modelo. Regularmente, transcurrido un espacio de tiempo discreto, el sistema cambia de estado (posiblemente volviendo al mismo), de acuerdo con un conjunto de probabilidades de transición asociadas a cada uno de los estados del modelo. Los instantes de tiempo asociados a cada cambio de estado se denotan como t = 1, 2,..., T. El resultado de este proceso estocástico es una secuencia T de observaciones Ô = (o 1o 2... o T ). En general, una descripción probabilística completa del sistema requeriría la especificación del estado actual, así como de todos los estados precedentes (Graña, 2000). Sin embargo, las cadenas de Markov presentan dos características muy importantes: 1. Propiedad del horizonte limitado. La probabilidad de estar en un estado depende de un número limitado de estados predecesores. En general, una cadena de Markov de orden n es la que utiliza n estados previos para predecir el siguiente estado. Por ejemplo, para el caso de las cadenas de Markov de tiempo discreto de primer orden tenemos que: P (s t s t 1, s t 2,..., s 1 ) = P (s t s t 1 ) La expresión P (s t s t 1 ) es lo que se conoce como probabilidad de transición entre los estados del modelo; en este caso representa la probabilidad de transición del estado s t 1 al s t. 2. Propiedad del tiempo estacionario. La probabilidad de transición entre dos estados no depende del instante de tiempo, por lo tanto, las probabilidades de transición se pueden representar mediante una matriz A = {a ij } donde: a ij = P (s j s i ), 1 i, j N son independientes del tiempo, pero con las restricciones estocásticas estándar: a ij 0, 1 i, j N N a ij = 1, j=1 1 i N Sin embargo, es necesario especificar también el vector Π = (π 1, π 2,..., π N ), que almacena la probabilidad que tiene cada uno de los estados de ser el estado inicial: N π i = 1, π i 0, 1 i N i=1 17
25 A un proceso estocástico que satisface estas características se le puede llamar un modelo de Markov observable, porque su salida es el conjunto de estados por los que pasa en cada instante de tiempo, y cada uno de estos estados se corresponde con un suceso observable Extensión a los modelos ocultos de Markov Hasta ahora se han considerado modelos de Markov en los cuales cada estado se corresponde de manera determinista con un único suceso observable, es decir, la salida en un estado dado no es aleatoria, sino que es siempre la misma. Esta modelación puede resultar demasiado restrictiva a la hora de ser aplicada a problemas reales. Una extensión al concepto original de modelos de Markov permitiría considerar aquellos casos en los cuales la observación es una función probabilística del estado. Como resultado se obtiene el modelo oculto de Markov, (HMM por sus siglas en inglés), el cual es un modelo doblemente estocástico, ya que uno de los procesos no se puede observar directamente (se encuentra oculto), sino que se puede observar a través de otro conjunto de procesos estocásticos, los cuales producen la secuencia de observaciones. Definición 1.1 Un HMM se caracteriza por la 5-tupla (S, O, π, A, B), donde: 1. S = {s 1, s 2,..., s N } es el conjunto de estados. 2. O = {o 1, o 2,..., o M } es el conjunto de las observaciones. 3. π = {π 1, π 2,..., π N } es la probabilidad de que un estado s i sea el estado inicial. 4. A = {a ij } es la probabilidad de transición del estado s i al estado s j. 5. B = {b i (o k )} es la probabilidad de que el modelo emita la observación o k estando en el estado s i. b i (o k ) = P (o k s i ), b i (o k ) 0, 1 i N, 1 k M M (b i (o k )) = 1, 1 i N k=1 Este conjunto de probabilidades se conoce con el nombre de probabilidades de emisión o probabilidades de observación. En el caso del etiquetado morfológico se tiene: Consideramos como instante de tiempo t a la posición que ocupa cada palabra dentro de la oración. Cada estado s i tiene asociada una categoría gramatical c i, y el número de estados, N, coincide con el número de categorías gramaticales. El conjunto de observaciones O es el diccionario. Cada o k es una palabra del diccionario. Una secuencia de observaciones Ô = (o 1, o 2,..., o T ) es una oración formada por T palabras. 18
Tagging. POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias.
Tagging POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias PLN Tagging 1 POS Tagging Las palabras, tomadas en forma aislada, son ambiguas
Más detallesTareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR
Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja
Más detallesCurso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Más detallesReconocimiento Automático de Voz
Reconocimiento Automático de Voz Presentación basada en las siguientes Referencias: [1] Rabiner, L. & Juang, B-H.. Fundamentals of Speech Recognition, Prentice Hall, N.J., 1993. [2] Rabiner, L. & Juang,
Más detallesTécnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar
Más detallesBases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción
Más detallesAprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Más detallesTareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR
Tareas de la minería de datos: clasificación PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja o asocia datos
Más detallesCurso de procesamiento del lenguaje natural
Curso de procesamiento del lenguaje natural César Antonio Aguilar Facultad de Lenguas y Letras 02/05/2012 Cesar.Aguilar72@gmail.com Qué es una palabra dentro de un corpus? (1) Un hecho que se da muchas
Más detallesEs un conjunto de palabras y símbolos que permiten al usuario generar comandos e instrucciones para que la computadora los ejecute.
Los problemas que se plantean en la vida diaria suelen ser resueltos mediante el uso de la capacidad intelectual y la habilidad manual del ser humano. La utilización de la computadora en la resolución
Más detallesModelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D
Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del
Más detallesEtiquetado gramatical
Etiquetado gramatical ITALICA Universidad de Sevilla José A. Troyano Índice Introducción Etiquetado con el modelo de Markov Etiquetado con el modelo de Markov oculto Etiquetado transformacional Precisión
Más detallesProgramación Evolutiva
Introducción a la Computación Evolutiva Quinta Clase: Programación Evolutiva Programación Evolutiva Desarrollada en USA durante los años 60 Autores principales: D. Fogel Aplicada típicamente a: PE tradicional:
Más detalles3. ESTRUCTURA DE UN CONVERSOR TEXTO-VOZ
Capítulo 3. Estructura de un conversor texto-voz Pagina 27 3. ESTRUCTURA DE UN CONVERSOR TEXTO-VOZ 3.1 INTRODUCCIÓN La conversión automática de texto a voz requiere la sucesión de una serie de procesos
Más detallesReconocimiento de Patrones
Reconocimiento de Patrones Jesús Ariel Carrasco Ochoa Instituto Nacional de Astrofísica Óptica y Electrónica ariel@inaoep.mx Contenido Introducción Enfoques Problemas Selección de Variables Clasificación
Más detallesInteligencia artificial
Inteligencia artificial Proceso de Lenguaje Natural Qué es el Lenguaje? Qué es el Lenguaje Natural? Procesamiento del lenguaje Natural (PLN) Aplicaciones PLN Niveles del Lenguaje Arquitectura de un sistema
Más detallesRaúl
Raúl Garreta @raulgarreta Subárea de Inteligencia Artificial, Ciencias de la Computación. Estudia métodos que permitan a las máquinas interactuar con las personas mediante lenguaje natural. Poder extraer
Más detallesTema 8: Árboles de decisión
Introducción a la Ingeniería del Conocimiento Curso 2004 2005 Tema 8: Árboles de decisión Miguel A. Gutiérrez Naranjo Dpto. de Ciencias de la Computación e Inteligencia Artificial Universidad de Sevilla
Más detallesClasificación de sistemas
Capítulo 2 Clasificación de sistemas 2.1 Clasificación de sistemas La comprensión de la definición de sistema y la clasificación de los diversos sistemas, nos dan indicaciones sobre cual es la herramienta
Más detallesSISTEMAS INFORMÁTICOS PROGRAMACION I - Contenidos Analíticos Ing. Alejandro Guzmán M. TEMA 2. Diseño de Algoritmos
TEMA 2 Diseño de Algoritmos 7 2. DISEÑO DE ALGORITMOS 2.1. Concepto de Algoritmo En matemáticas, ciencias de la computación y disciplinas relacionadas, un algoritmo (del griego y latín, dixit algorithmus
Más detallesAgro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
Más detallesDesambiguación del Sentido de las Palabras (Word Sense Disambiguation)
Desambiguación del Sentido de las Palabras (Word Sense Disambiguation) Introducción qué es ambigüedad? qué significa desambiguar? qué entendemos por sentido de las palabras? en qué consiste la tarea de
Más detallesCONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7)
Tema 1: Conceptos Básicos Sistemas Conexionistas 1 CONCEPTOS BÁSICOS (Freeman capt.1; Neural Nets capt. 4,5 y 7) 1.- Introducción. 1.1.- Redes Neuronales de Tipo Biológico. 1.2.- Redes Neuronales dirigidas
Más detallesIntroducción a la Lógica y la Computación
Introducción a la Lógica y la Computación Parte III: Lenguajes y Autómatas Clase del 4 de Noviembre de 2015 Parte III: Lenguajes y Autómatas Introducción a la Lógica y la Computación 1/21 Lenguajes Formales
Más detallesEspecialidades en GII-TI
Especialidades en GII-TI José Luis Ruiz Reina (coordinador) Escuela Técnica Superior de Ingeniería Informática Mayo 2014 Qué especialidades tiene la Ingeniería Informática? Según las asociaciones científicas
Más detallesTarea 2. José Alberto Benítez Andrades A. Descubrimiento de Información en Textos
Descubrimiento de Información en Textos Tarea 2 71454586A Descubrimiento de Información en Textos Máster en Lenguajes y Sistemas Informáticos Tecnologías del Lenguaje en la Web UNED 0. Introducción La
Más detallesRedes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile
Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Tutorial NIPS (Neural Information Processing Systems Conference) 2001: Learning Bayesian Networks
Más detallesTema 4: Gramáticas independientes del contexto. Teoría de autómatas y lenguajes formales I
Tema 4: Gramáticas independientes del contexto Teoría de autómatas y lenguajes formales I Bibliografía Hopcroft, J. E., Motwani, R., y Ullman, J. D. Introducción a la Teoría de Autómatas, Lenguajes y Computación.
Más detallesAprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo
2012 Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo Iván López Espejo 22/04/2012 2 Aprendizaje para Clasificación con Factorización Matricial Basado
Más detallesPROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ.
PROJECT GLASS : REALIDAD AUMENTADA, RECONOCIMIENTO DE IMÁGENES Y RECONOCIMIENTO DE VOZ. Lucas García Cillanueva Paloma Jimeno Sánchez-Patón Leticia C. Manso Ruiz PROJECT GLASS Dentro de Google Labs Gafas
Más detalles0886 GRADO EN LINGÜÍSTICA
0886 GRADO EN LINGÜÍSTICA 1ER. CURSO CRÉ. BÁSICAS 36 BÁSICAS IDIOMA ELEGIDO 24 2º CURSO OBLIGATORIAS 36 OBLIGATORIOS LENGUA 24 3ER. CURSO OBLIGATORIAS 36 OBLIGATORIOS LENGUA 12 LENGUA APLICADA 12 4º. CURSO
Más detallesBases de datos 1. Teórico: Diseño Conceptual
Bases de datos 1 Teórico: Diseño Conceptual Modelado Conceptual Primera etapa en el diseño de una BD Estudio del problema real Especificación usando un lenguaje de muy alto nivel Validar el resultado Actividad
Más detallesEstabilización Inteligente de Sistemas Eléctricos de Potencia (Parte II)
ANEXO AL INFORME DEL PROYECTO INDIVIDUAL ESTABILIZACIÓN INTELIGENTE DE SISTEMAS ELÉCTRICOS DE POTENCIA (Parte II). CLAVE CGPI: 20071307 DIRECTOR: M. en C. FRANCISCO JAVIER VILLANUEVA MAGAÑA. I. RESUMEN.
Más detallesCRITERIOS DE SELECCIÓN DE MODELOS
Inteligencia artificial y reconocimiento de patrones CRITERIOS DE SELECCIÓN DE MODELOS 1 Criterios para elegir un modelo Dos decisiones fundamentales: El tipo de modelo (árboles de decisión, redes neuronales,
Más detallesGLOSARIO ESTADÍSTICO. Fuente: Murray R. Spiegel, Estadística, McGraw Hill.
GLOSARIO ESTADÍSTICO Fuente: Murray R. Spiegel, Estadística, McGraw Hill. CONCEPTOS Y DEFINICIONES ESPECIALES Es el estudio científico de los métodos para recoger, organizar, resumir y analizar los datos
Más detallesTema 15: Combinación de clasificadores
Tema 15: Combinación de clasificadores p. 1/21 Tema 15: Combinación de clasificadores Abdelmalik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial
Más detallesDesambigüación del sentido de las palabras (WSD)
Desambigüación del sentido de las palabras (WSD) Miguel A. Alonso Departamento de Computación, Facultad de Informática, Universidade da Coruña 1 / 18 Índice 1 Introducción 2 Evaluación 3 Enfoques basados
Más detallesUnidad II: Análisis semántico
Unidad II: Análisis semántico Se compone de un conjunto de rutinas independientes, llamadas por los analizadores morfológico y sintáctico. El análisis semántico utiliza como entrada el árbol sintáctico
Más detallesBreve introducción a la Investigación de Operaciones
Breve introducción a la Investigación de Operaciones Un poco de Historia Se inicia desde la revolución industrial, usualmente se dice que fue a partir de la segunda Guerra Mundial. La investigación de
Más detallesAlgoritmos. Medios de expresión de un algoritmo. Diagrama de flujo
Algoritmos En general, no hay una definición formal de algoritmo. Muchos autores los señalan como listas de instrucciones para resolver un problema abstracto, es decir, que un número finito de pasos convierten
Más detallesIntroducción a las Redes Neuronales
Introducción a las Redes Neuronales Excepto en las tareas basadas en el cálculo aritmético simple, actualmente, el cerebro humano es superior a cualquier computador: Reconocimiento de imágenes, Interpretación
Más detallesCurso. Lingüística Aplicada III (Procesamiento inteligente de textos)
Curso Lingüística Aplicada III (Procesamiento inteligente de textos) DURACIÓN: 80 horas AUTOR DEL PROGRAMA: Dr. Alexander Gelbukh, Dr. Grigori Sidorov OBJETIVO GENERAL Describir que tipos de sistemas de
Más detallesProcesadores de Lenguaje
Procesadores de Lenguaje El Procesamiento de Lenguajes Naturales Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias - Ing. Informática - Primavera de 2010 19 de mayo de 2010 Componentes
Más detallesAprendizaje de etiquetas basado en transformaciones
Aprendizaje de etiquetas basado en transformaciones El etiquetador de Brill Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel
Más detallesIntroducción a la programación: Contenido. Introducción
Introducción a la programación: Contenido Introducción a la programación:... 1 Introducción... 1 1. Procesamiento automatizado de información... 1 2. Concepto de algoritmo.... 2 3. Lenguajes de programación....
Más detalles0886 GRADO EN LINGÜÍSTICA
0886 GRADO EN LINGÜÍSTICA 1ER. CURSO BÁSICAS 36 BÁSICAS IDIOMA ELEGIDO 24 2º CURSO OBLIGATORIAS 36 OBLIGATORIOS LENGUA 24 3ER. CURSO OBLIGATORIAS 36 OBLIGATORIOS LENGUA 12 LENGUA APLICADA 12 4º. CURSO
Más detallesFORMALIZACIÓN Y EJECUCIÓN DEPARTAMENTO DE ELECTRÓNICA Y COMPUTADORES. Mercedes Granda Departamento de Electrónica y Computadores
REDES DE PETRI: DEFINICIÓN, FORMALIZACIÓN Y EJECUCIÓN PROGRAMACIÓN CONCURRENTE MASTER EN COMPUTACIÓN DEPARTAMENTO DE ELECTRÓNICA Y COMPUTADORES UNIVERSIDAD DE CANTABRIA CURSO 22/3 REDES DE PETRI Las redes
Más detallesCoeficientes Cepstrales en Frecuencia Mel y Dynamic Time Warping para Reconocimiento Automatico del Habla
Coeficientes Cepstrales en Frecuencia Mel y Dynamic Time Warping para Reconocimiento Automatico del Habla Jorge Luis Guevara Diaz Semana ciencia de la Computación Escuela de Informática Universidad Nacional
Más detallesIntroducción a la Lógica y la Computación
Introducción a la Lógica y la Computación Parte III: Lenguajes y Autómatas Clase del 7 de Noviembre de 2014 Parte III: Lenguajes y Autómatas Introducción a la Lógica y la Computación 1/20 Lenguajes Formales
Más detallesPrimera aproximación al aprendizaje automático.
APRENDIZAJE Introducción al aprendizaje algorítmico José M. Sempere Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia Aprender: Tomar algo en la memoria [...] Adquirir
Más detallesInducción de Árboles de Decisión ID3, C4.5
Inducción de Árboles de Decisión ID3, C4.5 Contenido 1. Representación mediante árboles de decisión. 2. Algoritmo básico: divide y vencerás. 3. Heurística para la selección de atributos. 4. Espacio de
Más detallesCapítulo 9. Introducción a los lenguajes formales. Continuar
Capítulo 9. Introducción a los lenguajes formales Continuar Introducción Un lenguaje es un conjunto de símbolos y métodos para estructurar y combinar dichos símbolos. Un lenguaje también recibe el nombre
Más detallesApuntes de Tipos Abstractos de Datos. Juan M. Molina Bravo
Apuntes de Tipos Abstractos de Datos Juan M. Molina Bravo curso 2001-2002 0-2 Capítulo 1 Introducción a la Programación Basada en Tipos Abstractos de Datos. 1.1 Diseño basado en ttaadd Los sistemas de
Más detallesLA COMPRENSIÓN DESDE EL PUNTO DE VISTA DEL MARCO DE LA CONSTRUCCIÓN DE UNA ESTRUCTURA
PsL Tr7b 1 LA COMPRENSIÓN DESDE EL PUNTO DE VISTA DEL MARCO DE LA CONSTRUCCIÓN DE UNA ESTRUCTURA (El punto de vista de Gernsbacher) La meta de la comprensión es construir estructuras o representaciones
Más detallesRedes de Neuronas Recurrentes Computación con Inspiración Biológica
Redes de Neuronas Recurrentes Computación con Inspiración Biológica Grupo de Computación Evolutiva y Redes Neuronales Departamento de Informática Universidad Carlos III de Madrid Redes Recurrentes Introducción
Más detallesQué es SGBD? Mencionar 4 tipos de SGBD. SGBD de red. Román Gutiérrez Sosa. SGBD jerárquicos. Modelo de datos relacionales.
Qué es SGBD? Es un tipo de software muy específico, dedicado a servir de interfaz entre la base de datos, el usuario y las aplicaciones que la utilizan. El propósito general de los sistemas de gestión
Más detallesMASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión.
MASTER DE INGENIERÍA BIOMÉDICA. Métodos de ayuda al diagnóstico clínico. Tema 6: Árboles de decisión. 1 Objetivos del tema Conocer en qué consiste un árbol de decisión. Aprender los problemas que pueden
Más detallesCurso de semántica general
Curso de semántica general César Antonio Aguilar Facultad de Lenguas y Letras 18/11/2014 caguilara@uc.cl Síntesis de la clase anterior (1) En la clase pasada, revisamos un modelo de gramática llamado gramática
Más detallesFormulación del problema de la ruta más corta en programación lineal
Formulación del problema de la ruta más corta en programación lineal En esta sección se describen dos formulaciones de programación lineal para el problema de la ruta más corta. Las formulaciones son generales,
Más detallesConceptos básicos estadísticos
Conceptos básicos estadísticos Población Población, en estadística, también llamada universo o colectivo, es el conjunto de elementos de referencia sobre el que se realizan las observaciones. El concepto
Más detallesUnidad I: Introducción a las estructuras de datos
Unidad I: Introducción a las estructuras de datos 1.1 Tipos de datos abstractos (TDA) Los tipos de datos abstractos (TDA) encapsulan datos y funciones que trabajan con estos datos. Los datos no son visibles
Más detallesRedes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
Más detallesTEMA 1: SISTEMAS MODELADOS POR ECUACIONES DIFERENCIALES EN INGENIERÍA QUÍMICA. CLASIFICACIÓN. GENERALIDADES.
TEMA 1: SISTEMAS MODELADOS POR ECUACIONES DIFERENCIALES EN INGENIERÍA QUÍMICA. CLASIFICACIÓN. GENERALIDADES. 1. INTRODUCCIÓN. PLANTEAMIENTO DE PROBLEMAS EN INGENIERÍA QUÍMICA 2. PROBLEMAS EXPRESADOS MEDIANTE
Más detallesTema 7 Redes Neuronales Recurrentes
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M Galván -José Mª Valls Tema 7 Redes Neuronales Recurrentes REDES DE NEURONAS ARTIFICIALES INÉS M GALVÁN, JOSÉ Mª VALLS
Más detallesINSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016
ANEXO ESTADÍSTICO 1 : COEFICIENTES DE VARIACIÓN Y ERROR ASOCIADO AL ESTIMADOR ENCUESTA NACIONAL DE EMPLEO (ENE) INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 9 de Abril de 016 1 Este anexo estadístico es una
Más detallesBASE DE DATOS Modelos de Datos
BASE DE DATOS Modelos de Datos Autor: Lic. Jaquelina E. Escalante Desarrollo de una Base de datos 1 Análisis de requisitos, es decir, el estudio del sistema que se pretende modelar de la forma más precisa
Más detallesCURSO DE ESTRATEGIAS DE ENSEÑANZA - APRENDIZAJE CONSTRUCTIVISTAS
CURSO DE ESTRATEGIAS DE ENSEÑANZA - APRENDIZAJE CONSTRUCTIVISTAS OBJETIVO Dotar al profesor de herramientas de enseñanza que le permitan diversificar y pluralizar sus clases de tal manera que, bien planeadas
Más detallesMODELOS DE INVESTIGACION DE OPERACIONES
MODELOS DE INVESTIGACION DE OPERACIONES CARACTERÍSTICAS Los modelos se dividen en determinísticos (no probabilisticos) y estocásticos (probilisticos). Hay otros modelos híbridos porque incluyen las dos
Más detallesAPRENDIZAJE PROBABILÍSTICO NAIVE BAYES
1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;
Más detallesTema 2.- Caracterización de la informática La informática como disciplina científica Sub-áreas de la disciplina.
Tema 2.- Caracterización de la informática 2.1. La informática como disciplina científica. 2.2. Sub-áreas de la disciplina. 2.1. La informática como disciplina científica. 2.1.1 Una definición de Informática.
Más detallesEl proceso del Análisis Léxico
El proceso del Análisis Léxico El proceso de análisis léxico se refiere al trabajo que realiza el scanner con relación al proceso de compilación. El scanner representa una interfaz entre el programa fuente
Más detallesPlanificación didáctica de MATEMÁTICAS 4º E.S.O.
Planificación didáctica de MATEMÁTICAS 4º E.S.O. (Orientadas a las enseñanzas aplicadas) Julio de 2016 Rev.: 0 Índice 1.- INTRODUCCION... 1 2.- BLOQUE I. PROCESOS, MÉTODOS Y ACTITUDES EN MATEMÁTICAS...
Más detalles1.4.3 Errores de redondeo y la aritmética finita de las computadoras
1.4.3 Errores de redondeo y la aritmética finita de las computadoras Como la computadora sólo puede almacenar un número fijo de cifras significativas, y cantidades como π, e, 3, 2 no pueden ser expresadas
Más detallesCAPÍTULO 11 CONCLUSIONES Y LÍNEAS FUTURAS DE INVESTIGACIÓN
CAPÍTULO 11 CONCLUSIONES Y LÍNEAS FUTURAS DE INVESTIGACIÓN Este último Capítulo pretende presentar de forma breve los puntos fundamentales del trabajo desarrollado, exponer las principales conclusiones
Más detallesInteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Más detallesAPUNTES DE CATEDRA: SISTEMAS DE NUMERACION - REPRESENTACION INTERNA DE NUMEROS Y CARACTERES
Cátedra de COMPUTACION Carreras: Licenciatura en Matemática Profesorado en Matemática Profesora: Mgr. María del Carmen Varaldo APUNTES DE CATEDRA: SISTEMAS DE NUMERACION - REPRESENTACION INTERNA DE NUMEROS
Más detallesEstadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Más detallesAlgoritmos genéticos
Algoritmos genéticos Introducción 2 Esquema básico 3 El problema de la mochila 7 Asignación de recursos 0 El problema del viajante 3 Variantes del esquema básico 5 Por qué funciona? 9 Observaciones finales
Más detalles1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.
Capítulo 5 Campos finitos 5.1. Introducción Presentaremos algunos conceptos básicos de la teoría de los campos finitos. Para mayor información, consultar el texto de McEliece [61] o el de Lidl y Niederreiter
Más detallesUML (Lenguaje de Modelado Unificado) y Diagramas de Casos de Uso
UML (Lenguaje de Modelado Unificado) y Diagramas de Casos de Uso Los sistemas orientados a objetos describen las entidades como objetos. Los objetos son parte de un concepto general denominado clases.
Más detallesEnfoque Conceptual Borroso en Recuperación de Información
I Workshop Virtual de Ingeniería Linguística UNAB-NAACL Enfoque Conceptual Borroso en Recuperación de Información Prof. Dr. Andrés Soto Villaverde Universidad Autónoma del Carmen Cd. Carmen, Campeche,
Más detallesMétodos para escribir algoritmos: Diagramas de Flujo y pseudocódigo
TEMA 2: CONCEPTOS BÁSICOS DE ALGORÍTMICA 1. Definición de Algoritmo 1.1. Propiedades de los Algoritmos 2. Qué es un Programa? 2.1. Cómo se construye un Programa 3. Definición y uso de herramientas para
Más detalles3 er Grado Guía para los Padres /Terceras Nueve Semanas - 3 rd Grade Parent Guide Third Nine Weeks
Estas nueve semanas amplian los conocimientos y conceptos aprendidos en las nueve semanas previas. Los estudiantes van a evaluar los puntos de vista del orador, del autor y de ellos mismos. Los estudiantes
Más detallesFigura 1: Propiedades de textura: (a) Suavidad, (b) Rugosidad y (c) Regularidad
3 TEXTURA 3.1 CONCEPTO DE LA TEXTURA La textura es una característica importante utilizada en segmentación, identificación de objetos o regiones de interés en una imagen y obtención de forma. El uso de
Más detallesDiseño de algoritmos paralelos
Diseño de algoritmos paralelos Curso 2011-2012 Esquema del capítulo Visión general de algunos algoritmos serie. Algoritmo paralelo vs. Formulación paralela Elementos de un Algoritmo paralelo Métodos de
Más detallesÁRBOLES DE SINTAXIS. Los nodos no terminales (nodos interiores) están rotulados por los símbolos no terminales.
ÁRBOLES DE SINTAXIS ÁRBOL grafo dirigido acíclico. Los nodos no terminales (nodos interiores) están rotulados por los símbolos no terminales. Los nodos terminales (nodos hojas) están rotulados por los
Más detallesTema 5. Análisis sintáctico ascendente
Tema 5 Análisis sintáctico Ciencias de la Computación e Inteligencia Artificial Índice 5.1 Introducción 5.2 Análisis sintáctico por desplazamiento y reducción 5.3 El autómata reconocedor de prefijos viables
Más detallesLenguaje de Modelamiento Unificado.
Lenguaje de Modelamiento Unificado. Pontificia Universidad Javeriana What can you Model with UML? 1. Structure Diagrams include: The Class Diagram Object Diagram Component Diagram Composite Structure Diagram
Más detallesESTADÍSTICA: CONCEPTOS Y CARACTERÍSTICAS
Y CARACTERÍSTICAS La estadística: campos e importancia La estadística es una rama de las matemáticas que (a través de un conjunto de técnicas, métodos, normas, reglas y procedimientos que se ocupan en
Más detalles2.3 Clasificación de modelos matemáticos.
2.3 Clasificación de modelos matemáticos. Qué es un modelo? Un modelo es una representación ideal de un sistema y la forma en que este opera. El objetivo es analizar el comportamiento del sistema o bien
Más detallesExperimentos Introducción
Capítulo 5 Experimentos 5.1. Introducción En este capítulo se describirán los desarrollos y resultados de los experimentos realizados con el sistema de reconocimiento de voz presentado en este proyecto.
Más detallesLa Identificación de Stakeholders en la Ingeniería de Requisitos
La Identificación de Stakeholders en la Ingeniería de Requisitos Trabajo de investigación tutelado. Doctorando: Carla Leninca Pacheco Agüero. Tutor: Dr. Edmundo Tovar Caro. S I N T E S I S La primera medida
Más detallesTema 7: Aprendizaje de árboles de decisión
Inteligencia Artificial 2 Curso 2002 03 Tema 7: Aprendizaje de árboles de decisión José A. Alonso Jiménez Miguel A. Gutiérrez Naranjo Francisco J. Martín Mateos José L. Ruiz Reina Dpto. de Ciencias de
Más detallesReconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales
Reconocimiento automático de palabras en documentos históricos usando redes neuronales convolucionales Dra. Ma. de Guadalupe García Hernández Departamento de Ingeniería Electrónica Objetivo general Aplicar
Más detallesMODELIZACION 01. Universidad Nacional de La Pampa Facultad de Ciencias Económicas y Jurídicas 18 - Métodos Cuantitativos para la Administración
Bibliografía Mathur y Solow; Investigación de Operaciones - El arte de la toma de decisiones. Ed. Prentice Hall Anderson, Sweeney y Williams; Introducción a los modelos cuantitativos para Administración.
Más detallesTEMA 6: INTRODUCCIÓN A UML
TEMA 6: INTRODUCCIÓN A UML Por qué modelamos? El modelado es una parte central de todas las actividades que conducen a la producción de un software de calidad. Como tal la ingeniería software debe basarse
Más detallesAPRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8; Hilera Capt. 3)
Tema 2: Aprendizaje y Entrenamiento Sistemas Conexionistas 1 2.- Aprendizaje o Entrenamiento. 2.1.- Aprendizaje Automático. 2.2.- Tipos de aprendizaje. APRENDIZAJE Y ENTRENAMIENTO. (Neural Nets Capt. 8;
Más detallesTema 01: Algoritmia y diagramas de flujo. Estructuras de datos (Prof. Edgardo A. Franco)
Tema 1 Estructuras de datos (Prof. Edgardo A. Franco) Contenido Algoritmia Qué es un algoritmo? Métodos algorítmicos Diagrama de flujo Símbolos utilizados en los diagramas de flujo Reglas para la construcción
Más detallesSolución al parcial 14
Solución al parcial 14 Marque V(erdadero) o F(also) según considere la proposición. 1. La lógica difusa es la emulación del razonamiento aproximado que realizan las máquinas. F: Las máquinas no realizan
Más detalles