Clases de palabras y POS tagging

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Clases de palabras y POS tagging"

Transcripción

1 Clases de palabras y POS tagging. raul.gutierrez@correounivalle.edu.co april, 2012

2 Introducción al POS tagging

3 PARTS-OF-SPEECH (POS)(clase de la palabra) Tipos de POS: sustantivo, verbo, pronombre, preposición, adverbio, conjunción, participio y artículo, etc. La lista de POS son llamados tagsets que tiene más clases de palabras, por ejemplo; 45 para PTB (Marcus, 1993), 87 para Brown corpus (Francis, 1979) y 146 para el tagset C7 (Garside-1997). Los significados de POS; clases de palabras, clases morfológicas o tags léxicos. El POS es usado también en stemming para la recuperación de información, conociendo el POS de una palabras se pueden conocer los afijos. Part-of-Speech (parte de la oración) o tagging Es el proceso de asignar una (POS) parte de la oración u otra clase sintáctica para cada palabra en un corpus.

4 Tagset de PTB The/DT grand/jj jury/nn commented/vbd on/in a/dt number/nn of/in other/jj topics/nns./. There/EX are/vbp 70/CD children/nns there/rb

5 Tweet Tweet NLP- Carnegie Mellon el cual es un tokenizador y tageador para tweets, los tweets POS fueron anotados manualmente, el corpus de tweet para PoS tagged es un Tweebank sobre el corpus de Owoputi. El corpus es entrenado por un MEMMM tagger. Otro tagger para twitter es el que usa gate el cual es una versión aumentada del tagger de stanford y usa CRFs. Tiene una precisión del 91% java -jar twitie tag.jar models/gate-en-twitter.model {input file}

6 Tagset de Twokenize

7 Ambigüedad de tags Las palabras frecuentemente tienen más de un POS tag: bajo El niño bajo y la niña alta = ADJ Los niños corren bajo la escalera = CONJ Mick Jagger no toca el bajo en el grupo Kiss = SUS La persiana se bajo = VERB El problema de POS tagging es determinar el POS tag para una particular instancia de la palabra.

8 El corpus Brown

9 Tipos de tageadores 1 Tageadores basados en reglas (rule-based taggers): Generalmente involucran una gran base de datos de reglas de desambiguación manuscritas las cuales especifican el orden de los POS o categorías. 2 Tageadores estocásticos (Stochastic taggers): generalmente resuelven ambiguedades usando corpus de entrenamiento para calcular la probabilidad de una palabra dada. Los más importantes; (HMMs, Maximum entropy tagging, CRFs). 3 Tageadores basados en transformaciones (transformation-based tagger ) o tageador de Brill (Brill Tagger). Está basado en reglas y tiene un componente de aprendizaje automático, donde las reglas son automáticamente inducidas desde un corpus de entrenamiento tageado.

10 Tageador basado en reglas: EngCG tagger EngCG ENGTWOL usa un analizador morfológico de dos niveles con stems en inglés y retorna todos los posibles POS. En EngCG ENGTWOL cada palabra es anotada con características morfológicas y sintácticas. EngCG aplica restricciones de manera negativa Diccionario de ejemplo de ENGTWOL

11 Paso 1. Tageo de ENGTWOL Ejecuta las palabras a través de un FST analizador morfológico para obtener el POS y su información morfológica. Eje: Pavlov had shown that salivation... Pavlov had shown that salivation PAVLOV N NOM SG PROPER HAVE V PAST VFIN SVO HAVE PCP2 SVOO SVO SV SHOW PCP2 SVOO SVO SV ADV PRON DEM SG DET CENTRAL DEM SG CS N NOM SG

12 ENGTWOL Tagging: Paso 2 Aplicar las restricciones negativas: Regla adverbial that La siguiente regla elimina todas la lecturas de that excepto el sentido del ADV. Eliminar todas las lecturas de that excepto que no este seguido de la siguiente forma that odd. Karlsson, F., Voutilainen, A., Heikkil a, J., and Anttila, A. (Eds.). (1995b). Constraint Grammar: A Language- Independent System for Parsing Unrestricted Text. Mouton de Gruyter, Berlin.

13 Transformation-Based (Brill) Tagging Combina los sistemas basados en reglas y el tageo estocástico Los sistemas de reglas son usados para especificar los tags Como en el enfoque estocástico se entrenan conjuntos de reglas usando corpus etiquetados para encontrar el mejor desempeño de las reglas Las reglas son entrenadas desde conjunto de datos (datasets) Input: Corpus anotado Diccionario (con las mayores frecuencias de tags)

14 Arquitectura del etiquetador de Brill Etiquetador léxico: Etiqueta inicialmente cada palabra con la etiqueta más probable o una etiqueta igual para todos (pueden ser estimadas del corpus). Etiquetador de palabras desconocidas: Intenta etiquetarlas con base en prefijos y sufijos. Regla=descripción de contexto + regla de reescritura (reemplazo etiquetas) Reglas: Si la etiqueta actual es A y los últimos caracteres son X, reemplazar la etiqueta por B. Etiquetador contextual: Aplica en orden una serie de reglas contextuales inferidas a partir del corpus de entrenamiento. Reglas: Cambia A por B si la anterior palabra está etiquetada con C Cambia el adjetivo femenino plural por el adjetivo masculino plural si la anterior etiqueta es X

15 Un ejemplo de reglas de tranformación Estas reglas de transformación alteran la etiqueta de una palabra de X a Y si y sólo si : 1 La palabra no fue vista en el corpus de entrenamiento ó 2 La palabra fue vista etiquetada con Y al menos una vez en el corpus de entrenamiento. Muchas relaciones, entre palabras y palabras anteriores o entre etiquetas y la siguiente palabra, si TAG= NN y caracter final de palabra= s entonces TAG= NNS-MP Convertir palabras en otras si palabra-comienza= En y palabra siguiente= consecuencia entonces inserte palabra= En consecuencia Insertar palabras en otras palabras if palabra-comienza= del then inserte palabra= de and TAG actual= IN and inserte en palabra siguiente= el and inserte en TAG siguiente= DA-MS

16 Ejemplo de una regla de aplicación TBL Etiqueta de las palabras con su más probable tag Ejemplo: race ocurrencias en el Brown corpus P(NN race) =.02, P (NN T O) = P(VB race) =.98, P (V B T O) = 0.83 Secretariat/NNP is/vbz expected/vbn to/to race/nn tomorrow/nn Entonces TBL aplica la siguiente regla Cambie NN por VB cuando el tag previo es TO Secretariat/NNP is/vbz expected/vbn to/to race/nn tomorrow/nn se reescribe como Secretariat/NNP is/vbz expected/vbn to/to race/vb tomorrow/nn

17 Modelos estadísticos Cadenas Ocultas de Markov (HMMS) (Cutting [CKPS92]) Modelos de Máxima Entropía (MEMMs) (Adwait Raatnaparakhi [Rat98]) Conditional Random Fields (CRFs) (Fei Sha and Fernando Pereira) [SP03]) Aplicaciones Stanford Log-Linear Part-Of-Speech Tagger (Maximum Entropy POS tagger) Tweet POS tagger (Carnegie Mellon) -CRFs POS tagger -freeling HMMs

18 N-gramas Cuál es la probabilidad de una palabra w dada alguna historia h o P (w h)? Sea h: la vida es color de y deseamos saber la probabilidad de que la próxima palabra sea rosa: P (rosa La vida es color de ) Se puede computar esta probabilidad estimando conteos de frecuencia relativa: P (rosa La vida es color de) = C(La vida es color de rosa) C(La vida es color de)!!!!sobre grandes corpus se puede calcular el conteo de palabras y estimar la probabilidad!!!!

19 N-gramas Predicción de palabras Se puede predecir una palabra (word prediction) con modelos probabilísticos llamados modelos de N-gramas, los cuales predicen la próxima palabra desde las palabras N 1 anteriores. Entonces P (W ) o P (w n w 1, w 2... w n 1 ) es un modelo del lenguaje Probabilidad condicional P (B A) = P (A, B)/P (A) Reescribiendo Más variables: P (A, B) = P (A)P (B A) P (A, B, C, D) = P (A)P (B A)P (C A, B)P (D A, B, C) Regla de la cadena en general: P (x 1, x 2,..., x n ) = P (x 1 )P (x 2 x 1 )P (x 3 x 1, x 2 )... P (x n x 1, x 2,..., x n 1 )

20 Regla de la cadena aplicada en secuencia de palabras Podemos calcular la probabilidad de una secuencia entera como P (X 1 X n ): P (X 1 X n ) = P (X 1 )P (X 2 X 1 )P (X 3 X1 2 ) P (X n X n 1 n = P (X k X1 k 1 ) k=1 Aplicando la regla de la cadena a palabras, nos queda: P (w1 n ) = P (w 1 )P (w 2 w 1 )P (w 3 w1) 2 P (w n w n 1 n = P (w k w1 k 1 ) k=1 1 ) P(la vida es color de rosa)=p(la) P(vida la) P(es la vida) P(color la vida es) P(de la vida es color) P(rosa la vida es color de) 1 )

21 Regla de la cadena aplicado a la probabilidad conjunta P (w 1 w 2... w n ) = P (w i w 1 w 2... w i 1 ) Bigramas La intuición del modelo de N-gramas es que en lugar de computar la probabilidad de una palabra dada su historia, se aproximará la historia con sus últimas palabras En lugar de Aproximamos P (rosa La vida es color de) P (rosa de)

22 Modelo de bigramas Modelo de bigrama Se aproxima la probabilidad de una palabra, dada todas las anteriores palabras P (w n w1 n 1 ) usando solamante la probabilidad condicional de la palabra precedente P (w n w n 1 ) Suposición de Markov La probabilidad de una palabra depende solamente de la palabra anterior y no de la anterior cadena larga. P (w n w n 1 1 ) P (w n w n 1 ) Dada la suposición del bigrama se calcula la probabilidad de una secuencia así: n P (w1 n ) = P (w k w k 1 ) k=1

23 Estimación de máxima verosimilitud MLE (Maximum Likelihood Estimation) Como estimar estos bigramas o las probabilidades de los N-gramas? MLE es la más simple y más intuitiva manera de estimar probabilidades; usando información del corpus y normalización Se puede calcular la probabilidad de una palabra w n dada una palabra previa w n 1 usando el concepto de P (w n w n 1 ) = C(w n 1, w n ) C(w n 1 ) Un ejemplo para calcular algunos bigramas del siguiente corpus:

24 Sequence labeling problem, or a tagging problem La entrada al modelo de PoS tag es una secuencia de palabras o sentencia x 1... x n La secuencia del tag o secuencia de estado es de la misma longitud y 1... y n Secuencia de entrada; n = 5 y x 1 =el, x 2 = niño, x 3 =vió, x 4 =al x 5 =gato Secuencia de tag; y 1 =DA, x 2 = S, x 3 =V, x 4 =DA x 5 =S Asumimos que hay un conjunto de entrenamiento, (x (i), y (i) ) para i = 1... m, donde cada x (i) es una sentencia x (i) 1... x(i) n i cada y (i) es una sentencia tag y (i) 1... y(i) n i Po lo tanto cada x (i) j de entrenamiento. es la j-ésima palabra en el i-ésimo ejemplo y

25 Problema de POS tagging POS tagging como un problema de aprendizaje supervisado Usando un conjunto de entrenamiento (x (i), y (i) ) para i = 1... n, entonces X es el conjunto de secuencias x 1... x n, y Y sería el conjunto de todos las secuencias de tags y 1... y n. La tarea es encontrar encontrar una función f : X Y que mapee las sentencias de entrada a las sentencias de etiquetas. Una función f(x) es un modelo condicional definido por la probabilidad condicional p(y x) para cualquier par x, y. Los parámetros del modelo son estimados desde el conjunto de entrenamiento. Dado un nuevo ejemplo de testeo x, la salida del modelo es: f(x) =argmax y Y p(y x)

26 Etiquetadores estocásticos (HMMs Cadenas Ocultas de Markov) Objetivo de POS tagging usando HMMs Del universo de secuencias de tags, deseamos elegir la secuencia de tags la cual es la más probable dada la secuencia de observación de n palabras w n 1. Es decir, deseamos de todas las secuencias de n tags t n 1 ; la única secuencia de tags tal que P (t n 1 w n 1 ) es la más alta. t n 1 =argmax P (t n 1 w1 n ) t n 1 t n 1 significa estimar la secuencia correcta de tags, donde la función argmax x g(x) significa que la x tal que g(x) es maximizada. En pocas palabras Para una secuencia de tags t n 1 dada una secuencia de palabras w n 1 no sabemos como calcular P (t n 1 w n 1 ).

27 Bayesiano Por regla de Bayes: P (y x) = P (x y)p (y) P (x) Por tanto sustituyendo en t n 1 nos queda: t n P (w1 n t n 1 )P (t n 1 ) 1 =argmax t n P (w n 1 1 ) Podemos eliminar P (w n 1 ) dado que se va a elegir una nueva secuencia de tags es decir P (t n 1 ) y no una nueva secuencia de observaciones, por lo tanto, P (w n 1 ) no cambia para cada secuencia de tags, así que tenemos: t n 1 =argmax P (w1 n t n 1 )P (t n 1 ) t n 1

28 Argumento máximo El argumento máximo La más probable secuencia de tags t n 1 dada alguna cadena de palabras w n 1 puede ser computada como el producto de dos probabilides para cada secuencia de tags, eligiendo la secuencia de tags para el cual el producto es el máximo. t n 1 =argmax t n 1 likelihood prior {}}{{}}{ P (w1 n t n 1 ) P (t n 1 ) 1 Prior probability es la probabilidad anterior de la secuencia P (t n 1 ) 2 Likelihood, probabilidad de la cadena de palabras P (w n 1 t n 1 ) Esto es duro de calcular!

29 Inclusión de los HMMs La primera suposición es la probabilidad de una palabra que aparece y es dependiente de su propio tag POS. Esto es idependiente de otras palabras alrededor de esa misma palabra y de los tags alrededor P (w n 1 t n 1 ) n P (w i t i ) La segunda suposición es la probabilidad de un tag apareciendo el cual es solamante dependiente solamante del anterior tag, el bigrama de suposición es: P (t n 1 ) i=1 n P (t i t i 1 ) i=1 Entonces el tageador bigrama es: t n 1 =argmax P (t n 1 w1 n ) argmax t n 1 t n 1 n P (w i t i )P (t i t i 1 ) i=1

30 Máxima Verosimilitud (MV) Por ejemplo, P (NN DT ) tomada de un corpus es el número de veces que vemos NN después de DT, fuera de las veces que vemos a DT. Se puede definir una medida de máxima verosimilitud o relación de recuentos de una probalidad de transición de un tag tomando un corpus etiquetado de POS tags. P (t i t i 1 ) = C(t i 1, t i ) C(t i 1 ) En PTB, el tag DT ocurre veces y de estos DT es seguido por NN veces. Es decir, la probabilidad en términos de la MV es la siguiente: P (NN DT ) = C(DT, NN) C(DT ) = 56, , 454 =.49 Esta es la probabilidad de obtener un sustantivo común después de un determinante.

31 HMMs en POS tagging Para estimar el MLE de una palabra w 1 con su tag t i desde un corpus: P (w i t i ) = C(t i, w i ) C(t i ) En el TreeBank Brown corpus, el tag VBZ ocurre 21,627 veces, y VBZ es el tag para el verbo is 10,073 veces. P (is V BZ) = C(V BZ, is) C(V BZ) = 10, , 627 =.47 Los determinantes son más probables que precedan a los adjetivos y sustantivos, secuencias como: ese/dt vuelo/nn and el/dt sombrero/nn amarillo/jj P (NN/DT ) y P (JJ DT ) son más altas pero P (DT JJ) es baja Los supuestos independientes: un POS tag que este ocurriendo es idependiente del evento de cualquier otro POS tag ocurrido excepto el inmediatamente previo POS tag.

32 Cálculo de probabilidad de las dos secuencias Probabilidad de la secuencia a) t 6 1 = P (Secretariat NNP )P (NNP ) P (is V BZ)P (V BZ NNP ) = P (expected V BN)P (V BN V BZ) P (to T O)P (T O V BN) = P (race V B)P (V B T O) P (tomorrow NR)P (NR V B) Probabilidad de la secuencia b) t 6 2 = P (Secretariat NNP )P (NNP ) P (is V BZ)P (V BZ NNP ) = P (expected V BN)P (V BN V BZ) P (to T O)P (T O V BN) = P (race NN)P (NN T O) P (tomorrow NR)P (NR NN) t 6 > t 6

33 P (NN T O) = P (V B T O) =.83 P (race NN) =.00057, P (NR V B) =.0027 P (race V B) =.00012, P (NR NN) =.0012 Multiplicando las probabilidades léxicas con las probabilidades de secuencia de tags: P (V B T O)P (NR V B)P (race V B) = P (NN T O)P (NR NN)P (race NN) =

34 Es más probable race como verbo

35 Cadenas de Markov Transición entre estados Las cadenas de Markov son autómatas finitos probabilísticos en la cual la secuencia de entrada únicamente determina por cuales estados del autómata debe pasar. Sea P (t i t i 1 ) la probabilidad de transición o probabilidad a priori

36 Cadenas Ocultas de Markov HMMs Por qué las cadenas de Markov no son apropiadas para el POS tagging? En un modelo de Markov normal, el estado es visible directamente para el observador por lo que las probabilidaes de transición entre estados son los únicos parámetros. En un HMM, el estado no es visible directamente, sino que sólo lo son las variables influidas en el estado. Cada estado tiene una distribución de probabilidad sobre los posibles símbolos de salida. Cadenas ocultas de Markov Las HMMs nos permiten hablar acerca de ambos de los eventos observados (como palabras que vemos en la entrada) y los eventos ocultos (como los POS tags) que son considerados factores causales en nuestro modelo probabilístico.

37 Formalización de las HMMs

38 HMMs

39 Algoritmo de Viterbi la primera tabla es a i,j que son las probabilidades de transición entre los estados ocultos (parts-of-speech) y la segunda tabla b i (o t ) probabilidades de observación de las palabras dadas el tag. P (P P SS V B) =

40 Viterbi El algoritmo primero crea N estados, donde la primera columna corresponde a la observación de la primera palabra i. Para cada estado q j en el tiempo t el valor de v t (j), el tiempo t hace referencia a cada una de las columnas de la grilla cuando va transcurriendo sobre cada observación o t N v t (j) = [ max v t 1(i)a ij ]b j (o t ) i=1 Los tres factores de la ecuación son: 1 v t 1(i) el camino previo de Viterbi desde el paso del tiempo anterior. Donde i recorre los estados y t recorre las observaciones. 2 a ij La probabilidad de transición del estado previo q i al estado actual q j 3 b j(o t) Probabilidad del estado de observación del símbolo de observación o t dado el actual estado j

41

42

43

44

45 Modelos discriminativos y generativos Modelos discriminativos Llamados modelos condicionales modela la dependencia de una variable no obervable y sobre una variable observable x, es decir, se modela la p(y x) en la cual se predice y desde x, esta probabilidad es calculada directamente sin pasos intermedios. Modelo generativos Los modelos generativos aprenden de un modelo de probabilidad conjunta, p(x, y), de entrada x y etiqueta y y hace la predicción usand la regla de Bayes para calcular p(y x) y luego escoge la etiqueta más probable y.

46 HMMS y MEMMs (Sequence labeling) El grafo representa las dos suposiciones de Markov P (w n t n )P (t n t n 1 ) La actual observación solamante depende de su actual estado Encuentra parámetros para maximizar P (X, Y ) (Generativo)

47 HMMS y MEMMs (Sequence Labeling) Las funciones de transición y observaciones son reemplazadas por una sola función P (t n t n 1, w n ) La actual observación puede depender también del estado anterior Encuentra parámetros para maximizar P (X Y ) (Discriminativo)

48 CRFs (Sequence Labeling) Encuentra parámetros para maximizar P (Y X, Y,... Z) (Discriminativo)

49 HMMs y trigramas Los tageadores de HMMs usan un poco más de historia, sea la probabilidad del tag dependiendo sólo del tag anterior P (t n 1 ) n P (t i t i 1 ) i=1 Sea la posibilidad del tag dependiendo de los dos tags anteriores: Finalmente, P (t n 1 ) n P (t i t i 1, t i 2 ) i=1 t n 1 =argmax P (t n 1 w1 n ) argmax t n 1 t n 1 n [ P (w i t i )P (t i t i 1, t i 2 )]P (t n+1 t n ) i=1 Uso de boundary sentence t n+1, t n

50 Data sparsity due to combination t i 2, t i 1, t 1 El problema de sparsity se resuelve interpolando unigramas, bigramas y trigramas: ˆP (t i t i 1, t i 2 ) = C(t i 2, t i 1, t i ) C(t i 2, t i 1 ) Duro!!!!! pueden no haber combinaciones t i 2, t i 1, t 1 ˆP (t i t i 1 ) = C(t i 1, t i ) C(t i 1 ) ˆP (t i ) = C(t i) C(N) Se estima una interpolación lineal para calcular la probabilidad del trigramas y evitar la escases de la combinación t i 2, t i 1, t 1 P (t i t i 1, t i 2 ) = λ 1 ˆP (ti t i 1, t i 2 ) + λ 2 ˆP (ti t i 1 ) + λ 3 ˆP (ti ) Se requiere que λ 1 + λ 2 + λ 3 = 1, y se calculan los λs usando deleted interpolation con borrado de trigramas

51 Palabras desconocidas La mayoría de los algoritmo de palabras desconocidas hacen uso de información morfológica. P (w i t i ) = P (palabra desconcida t i ) P (capital t i ) P (finales/hyph t i ) Derivaciones finales e inflexaciones: -ed, -s, -ing, -ion, al, ive, Las capitalizaciones pueden ser en la sentencia inicial (+/-, capitalización, +/-) y las las hipenatizaciones ca-sarumba, navega-ción Otro modelo, calcula para cada sufijo de longitud i la probabilidad del tag dado el sufijo. P (t i l n i+1... l n )

52 CRFs y PoS tagging La última columna representa la verdadera etiqueta que va a ser entrenada por el CRF Training: crf learn template file train file model file Testing: crf test -m model file test files >> output.txt La precisión, recall y F1 es medido con el conlleval.pl: perl conlleval.pl -r -o NOEXIST < output1.txt con espacio (uno) en blanco o también perl conlleval.pl -d, -r < output1.csv si no se quiere el dato relevante NOEXIST y las columnas van separadas con coma

53 Accuracy, precision, recall, F1 Predicted Positivo Negativo Actual-gold Positivo tp f n Negativo f p tn fp (falso positivo o Tipo de error I): Casos negativos que fueron incorrectamente clasificados como positivos. fn (falso negativo o Tipo de error II): Casos positivos que fueron incorrectamente clasificados como negativos.

54 Medidas de desempeño Recall es la proporción de casos positivos que fueron correctamente identificados. R = tp tp + fn Precision inidica la proporción de buena predicción para los positivos. tp P = tp + fp Accuracy AC = tp + tn tn + tp + fp + fn Finalmente, F-measure o F 1 -measure es la media armónica de la precision y el recall F 1 = 2 P R P + R

55 Ejemplo de CRF con POS-tagging El conjunto de entrenamiento sólo tiene la cadena y su respectivo tag de Ancora En el template sólo va definido el CRF-lineal de la observación Se quiere clasificar dos conjuntos: uno de anotado para ver la precisión y el otro para simplemente anotarlo con la sola caractística de observación

56 Ejemplo sobre POS tagging

57 Recursos en la web Demos on-line: Freeling (multilingüe, gallego y castellano) Centro de Tecnologías y Aplicaciones del Lenguaje y de Habla. Univ. Politéctica de Cataluña: Cognitive Computation Group, Univ. of Illinois at Urbana- Champaigh: view/p OS CST s POS tagger (Brill adaptado): Centre for Language Technology, Univ. of Copenhagen: Descargas: Freeling: ttp://devel.cpl.upc.edu/freeling/ downloads?order=time&desc=1 CST s POS tagger (Brill adaptado): TnT tagger and Brill tagger entrenados para el español: TreeTagger (multilingüe, español incl.): uni-muenchen.de/ schmid/tools/treetagger/

58 Doug Cutting, Julian Kuppiec, Jan Pedersen, and Penelope Sibun. A practical part-of-speech tagger. Xerox Palo Alto Research Center, Adwait Ratnaparkhi. A maximum entropy model for part-of-speech tagging. University of Pensylvania, Fei Sha and Fernando Pereira. Shallow parsing with conditional random fields. University of Pensylvania, 2003.

Etiquetado gramatical

Etiquetado gramatical Etiquetado gramatical ITALICA Universidad de Sevilla José A. Troyano Índice Introducción Etiquetado con el modelo de Markov Etiquetado con el modelo de Markov oculto Etiquetado transformacional Precisión

Más detalles

Tagging. POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias.

Tagging. POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias. Tagging POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias PLN Tagging 1 POS Tagging Las palabras, tomadas en forma aislada, son ambiguas

Más detalles

2 Conceptos de PLN: Análisis Sintáctico Superficial. 3 Conceptos de PLN: Semántica Léxica. 4 Extracción de Información. 5 Búsqueda de Respuestas

2 Conceptos de PLN: Análisis Sintáctico Superficial. 3 Conceptos de PLN: Semántica Léxica. 4 Extracción de Información. 5 Búsqueda de Respuestas Índice 1 Conceptos de PLN: Análisis Morfológico y Etiquetación 2 Conceptos de PLN: Análisis Sintáctico Superficial 3 Conceptos de PLN: Semántica Léxica 4 Extracción de Información 5 Búsqueda de Respuestas

Más detalles

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models

Más detalles

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción

Más detalles

Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano

Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano JOSÉ LUIS TRIVIÑO RODRIGUEZ RAFAEL MORALES BUENO FRANCISCO TRIGUERO RUÍZ JOSÉ LUIS PÉREZ DE LA CRUZ MOLINA Universidad

Más detalles

Corpus Etiquetado léxico FreeLing

Corpus Etiquetado léxico FreeLing Corpus Etiquetado léxico FreeLing Qué es un corpus? Un corpus es una colección de material lingüístico. Es de utilidad en diferentes áreas, principalemente en lingüística computacional y lingüística teórica.

Más detalles

Aprendizaje de etiquetas basado en transformaciones

Aprendizaje de etiquetas basado en transformaciones Aprendizaje de etiquetas basado en transformaciones El etiquetador de Brill Miguel A. Alonso Jorge Graña Jesús Vilares Departamento de Computación, Facultad de Informática, Universidade da Coruña Miguel

Más detalles

Object Recognition as Machine Translation: Learning a Lexicon for a Fixed Image Vocabulary

Object Recognition as Machine Translation: Learning a Lexicon for a Fixed Image Vocabulary Object Recognition as Machine Translation: Learning a Lexicon for a Fixed Image Vocabulary P. Duygulu, K. Barnard, J.F.G. de Freitas, and D.A. Forsyth Dr. Enrique Sucar 1 Victor Hugo Arroyo Dominguez 1

Más detalles

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Validación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Validación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción La mayoría de los clasificadores que se han visto requieren de uno o más parámetros definidos libremente,

Más detalles

Un lematizador desambiguado con R

Un lematizador desambiguado con R Un lematizador desambiguado con R Carlos J. Gil Bellosta cgb@datanalytics.com Mayo 2013 Contenidos 1 Motivación: un discurso de Rajoy 2 Lematización basada en reglas Lematización basada en diccionarios

Más detalles

Desambigüación del sentido de las palabras (WSD)

Desambigüación del sentido de las palabras (WSD) Desambigüación del sentido de las palabras (WSD) Miguel A. Alonso Departamento de Computación, Facultad de Informática, Universidade da Coruña 1 / 18 Índice 1 Introducción 2 Evaluación 3 Enfoques basados

Más detalles

Desambiguación del Sentido de las Palabras (Word Sense Disambiguation)

Desambiguación del Sentido de las Palabras (Word Sense Disambiguation) Desambiguación del Sentido de las Palabras (Word Sense Disambiguation) Introducción qué es ambigüedad? qué significa desambiguar? qué entendemos por sentido de las palabras? en qué consiste la tarea de

Más detalles

Modelo del Lenguaje. N-gramas.

Modelo del Lenguaje. N-gramas. Modelo del Lenguaje. N-gramas. Introducción a las Tecnologías del Habla 2 o cuatrimestre 214 Agustín Gravano Las acciones se... Predicción de palabras Predicción de palabras Las acciones se derrumbaron

Más detalles

Gramáticas Formales para el Lenguaje Natural. Análisis sintáctico probabilístico

Gramáticas Formales para el Lenguaje Natural. Análisis sintáctico probabilístico Gramáticas Formales para el Lenguaje Natural Análisis sintáctico probabilístico Análisis sintáctico probabilístico Insuficiencias de GIC GIC probabilistas (GICP) Definición Probabilidad de un árbol y de

Más detalles

Procesamiento de voz - Reconocimiento de voz II

Procesamiento de voz - Reconocimiento de voz II Procesamiento de voz - Reconocimiento de voz II Marc S. Reßl Roxana Saint-Nom 2009 Ingeniería Electrónica Instituto Tecnológico de Buenos Aires Reconocimiento de voz Las técnicas que vimos hasta ahora

Más detalles

2 de mar de 2004 Codificación de imágenes y v ideo

2 de mar de 2004 Codificación de imágenes y v ideo Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N

Más detalles

Un etiquetador morfológico para el español de Cuba

Un etiquetador morfológico para el español de Cuba Universidad de Oriente Facultad de Matemática y Computación Un etiquetador morfológico para el español de Cuba Tesis en opción al título de Máster en Ciencia de la Computación Presentada por: Lic. Lisette

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que Aprenden: Clasificador Bayesiano Clasificación Clasificador

Más detalles

Presentación del Programa LEXIS-web

Presentación del Programa LEXIS-web Presentación del Programa LEXIS-web Hiroto Ueda (Universidad de Tokio) El objetivo principal de esta aplicación es ofrecer a los investigadores de lingüística y filología españolas una herramienta para

Más detalles

Curso de procesamiento del lenguaje natural

Curso de procesamiento del lenguaje natural Curso de procesamiento del lenguaje natural César Antonio Aguilar Facultad de Lenguas y Letras 02/05/2012 Cesar.Aguilar72@gmail.com Qué es una palabra dentro de un corpus? (1) Un hecho que se da muchas

Más detalles

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1

Más detalles

Técnicas básicas en el tratamiento informático de la lengua

Técnicas básicas en el tratamiento informático de la lengua 1 de 6 15/03/2007 16:29 Técnicas básicas en el tratamiento informático de la lengua Basic techniques in computerized language processing Horacio Rodríguez Los procesadores lingüísticos son parte necesaria

Más detalles

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos

Más detalles

Elementos de máquinas de vectores de soporte

Elementos de máquinas de vectores de soporte Elementos de máquinas de vectores de soporte Clasificación binaria y funciones kernel Julio Waissman Vilanova Departamento de Matemáticas Universidad de Sonora Seminario de Control y Sistemas Estocásticos

Más detalles

Introducción a Minería de Texto. Fabián Latorre

Introducción a Minería de Texto. Fabián Latorre Introducción a Minería de Texto Fabián Latorre fabian.latorre@quantil.com.co Contenido Qué es la minería de texto? Por qué es relevante? Por qué la estudiamos? Aplicaciones La complejidad del texto no

Más detalles

clases cerradas: preposiciones, artículos, conjunciones, pronombres, complementantes.

clases cerradas: preposiciones, artículos, conjunciones, pronombres, complementantes. Introducción al Procesamiento del Lenguaje Natural 1/2003 Apunte 1 El nivel sintáctico se ocupa de especificar las posibilidades de combinación de determinadas unidades. Según cuáles sean estas unidades,

Más detalles

Nuevas fuentes de información para entrenamiento de etiquetadores gramaticales

Nuevas fuentes de información para entrenamiento de etiquetadores gramaticales Universidad de Buenos Aires Facultad de Ciencias Exactas y Naturales Departamento de Computación Nuevas fuentes de información para entrenamiento de etiquetadores gramaticales Tesis presentada para optar

Más detalles

Introducción al Procesamiento de Lenguaje Natural. Grupo de PLN - InCo

Introducción al Procesamiento de Lenguaje Natural. Grupo de PLN - InCo Introducción al Procesamiento de Lenguaje Natural Grupo de PLN - InCo Modelos de Lenguaje But it must be recognized that the notion probability of a sentence is an entirely useless one, under any known

Más detalles

Text Mining. Laura Alonso i Alemany. Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina)

Text Mining. Laura Alonso i Alemany. Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina) Text Mining Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina) http://www.cs.famaf.unc.edu.ar/~laura SADIO 9 de Abril de 2010 contenidos unidades mínimas de significado contenidos unidades

Más detalles

Clasificación Bayesiana

Clasificación Bayesiana Clasificación Bayesiana Naive Bayes septiembre 30, 2014 Ricardo Corral Corral rcorral@email.ifc.unam.mx Instituto de Fisiología Celular Universidad Nacional Autónoma de México Temas 1 Introducción Conceptos

Más detalles

Natural Language Processing. Estudio realizado por E. G. Ortiz-García

Natural Language Processing. Estudio realizado por E. G. Ortiz-García Natural Language Processing Estudio realizado por E. G. Ortiz-García Índice 1 Introducción 2 Morfología 3 Corrección de errores 4 N-grams 5 Tagging 6 Context-Free Grammar (CFG) 2/ 29 Introducción Definición

Más detalles

WSD usando Modelos de probabilidad de Máxima Entropía

WSD usando Modelos de probabilidad de Máxima Entropía WSD usando Modelos de probabilidad de Máxima Entropía Armando Suárez Cueto Manuel Palomar Sanz (Dtor.) Grupo de Procesamiento del Lenguaje y Sistemas de Información Dpto. de Lenguajes y Sistemas Informáticos

Más detalles

Raúl

Raúl Raúl Garreta @raulgarreta Subárea de Inteligencia Artificial, Ciencias de la Computación. Estudia métodos que permitan a las máquinas interactuar con las personas mediante lenguaje natural. Poder extraer

Más detalles

Apéndice A: Matrices de confusión y resultados de precisión, exhaustividad y medida F

Apéndice A: Matrices de confusión y resultados de precisión, exhaustividad y medida F Apéndices 77 Apéndice A: Matrices de confusión y resultados de precisión, exhaustividad y medida F En este apéndice se presentan seis tablas con otros resultados obtenidos. En cada una de las primeras

Más detalles

Aprendizaje inductivo

Aprendizaje inductivo Inteligencia Artificial Aprendizaje inductivo Ing. Sup. en Informática, 4º Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3.1 Introducción

Más detalles

Aprendizaje Automatizado

Aprendizaje Automatizado Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto

Más detalles

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo

Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo 2012 Aprendizaje para Clasificación con Factorización Matricial Basado en Listwise para Filtrado Colaborativo Iván López Espejo 22/04/2012 2 Aprendizaje para Clasificación con Factorización Matricial Basado

Más detalles

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Reconocimiento de patrones (RP): clasificar objetos en un número de categorías o clases.

Más detalles

El Algoritmo E-M. José Antonio Camarena Ibarrola

El Algoritmo E-M. José Antonio Camarena Ibarrola El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

LENGUAJES Y GRAMÁTICAS

LENGUAJES Y GRAMÁTICAS LENGUAJES Y GRAMÁTICAS Orlando Arboleda Molina Escuela de Ingeniería de Sistemas y Computación de La Universidad del Valle 20 de septiembre de 2008 Contenido Lenguajes y Gramáticas Gramáticas Gramáticas

Más detalles

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR Tareas de la minería de datos: clasificación Clasificación (discriminación) Empareja

Más detalles

Reconocimiento de Patrones DRA. LETICIA FLORES PULIDO

Reconocimiento de Patrones DRA. LETICIA FLORES PULIDO Reconocimiento de Patrones DRA. LETICIA FLORES PULIDO 2 CONTENIDO TEMA1: INTRODUCCIÓN TEMA2: APRENDIZAJE MÁQUINA TEMA3: REDES NEURONALES MULTICAPA TEMA4: PROGRAMACIÓN EVOLUTIVA 3 TEMA 2 : APRENDIZAJE MÁQUINA

Más detalles

Determinantes. Definiciones básicas sobre determinantes. José de Jesús Angel Angel.

Determinantes. Definiciones básicas sobre determinantes.  José de Jesús Angel Angel. Determinantes Definiciones básicas sobre determinantes wwwmathcommx José de Jesús Angel Angel jjaa@mathcommx MathCon c 2007-2008 Contenido 1 Determinantes 2 11 Propiedades de determinantes 4 2 Inversa

Más detalles

Desambiguación léxica basada en redes neuronales para el castellano

Desambiguación léxica basada en redes neuronales para el castellano Desambiguación léxica basada en redes neuronales para el castellano Salvador Tortajada Velert, María José Castro Bleda, Ferran Pla Santamaría Departamento de Sistemas Informáticos y Computación Universidad

Más detalles

Análisis morfosintáctico estadístico en lengua gallega

Análisis morfosintáctico estadístico en lengua gallega Análisis morfosintáctico estadístico en lengua gallega Francisco Méndez Pazó Universidad de Vigo E.T.S.I. Telecomunicación fmendez@gts.tsc.uvigo.es Eduardo Rodríguez Banga Universidad de Vigo E.T.S.I.

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

1 Gramáticas de Unificación. 3 Representación y Análisis Semántico. 5 Recuperación de Información. 6 Extracción de Información

1 Gramáticas de Unificación. 3 Representación y Análisis Semántico. 5 Recuperación de Información. 6 Extracción de Información Índice Análisis Sintáctico Superficial 1 Gramáticas de Unificación 2 Análisis Sintáctico Superficial 3 Representación y Análisis Semántico 4 Semántica Léxica 5 Recuperación de Información 6 Extracción

Más detalles

TEMA 3. MORFOLOGÍA FLEXIVA Y LEXICA.

TEMA 3. MORFOLOGÍA FLEXIVA Y LEXICA. TEMA 3. MORFOLOGÍA FLEXIVA Y LEXICA. Recuerda que los lexemas son las unidades mínimas de las palabras con significado, y que los morfemas son las unidades complementarias del lexema que designan el género,

Más detalles

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN

TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN TECNOLOGÍAS INTELIGENTES PARA EXPLOTACIÓN DE INFORMACIÓN FUNDAMENTOS CURSO DE DOCTORADO Dr. Ramón García-Martínez * * * CONTEXTO La inteligencia de negocio propone un abordaje interdisciplinario que tomando:

Más detalles

Procesos estocásticos Cadenas de Márkov

Procesos estocásticos Cadenas de Márkov Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el

Más detalles

ANÁLISIS DE REGRESIÓN

ANÁLISIS DE REGRESIÓN ANÁLISIS DE REGRESIÓN INTRODUCCIÓN Francis Galtón DEFINICIÓN Análisis de Regresión Es una técnica estadística que se usa para investigar y modelar la relación entre variables. Respuesta Independiente Y

Más detalles

Tarea 2. José Alberto Benítez Andrades A. Descubrimiento de Información en Textos

Tarea 2. José Alberto Benítez Andrades A. Descubrimiento de Información en Textos Descubrimiento de Información en Textos Tarea 2 71454586A Descubrimiento de Información en Textos Máster en Lenguajes y Sistemas Informáticos Tecnologías del Lenguaje en la Web UNED 0. Introducción La

Más detalles

Procesadores de Lenguaje

Procesadores de Lenguaje Procesadores de Lenguaje El Procesamiento de Lenguajes Naturales Cristina Tîrnăucă Dept. Matesco, Universidad de Cantabria Fac. Ciencias - Ing. Informática - Primavera de 2010 19 de mayo de 2010 Componentes

Más detalles

METODOS ESTADÍSTICOS

METODOS ESTADÍSTICOS METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.

Más detalles

Introducción al Procesamiento de Lenguaje Natural. Grupo PLN - InCo

Introducción al Procesamiento de Lenguaje Natural. Grupo PLN - InCo Introducción al Procesamiento de Lenguaje Natural Grupo PLN - InCo 2017 Normalización de Textos Unidades de texto Cuáles son las unidades independientes más pequeñas del texto? - Segmento del discurso

Más detalles

Introducción a la lingüística computacional

Introducción a la lingüística computacional Introducción a la lingüística computacional César Antonio Aguilar Facultad de Lenguas y Letras 15/10/2013 Cesar.Aguilar72@gmail.com Analizando frases con NLTK (1) En esta sesión vamos a empezar a emplear

Más detalles

Procesamiento del lenguaje natural

Procesamiento del lenguaje natural Procesamiento del lenguaje natural F. J. Martín Mateos J. L. Ruiz Reina Dpto. Ciencias de la Computación e Inteligencia Artificial Ampliación de Inteligencia Artificial, 2012-2013 Introducción El Procesamiento

Más detalles

CAPITULO 8 MUESTRAS ALEATORIAS Y NUMEROS ALEATORIOS

CAPITULO 8 MUESTRAS ALEATORIAS Y NUMEROS ALEATORIOS Teoría elemental de muestreo CAPITULO 8 TEORIA DE MUESTREO La teoría de muestreo es el estudio de las relaciones existentes entre una población y las muestras extraídas de ella. Es de gran utilidad en

Más detalles

Estadística Descriptiva y Probabilidad FORMULARIO

Estadística Descriptiva y Probabilidad FORMULARIO Estadística Descriptiva y Probabilidad FORMULARIO Departament d Estadística i Investigació Operativa Universitat de València Angel Corberán Francisco Montes 2 3 Capítulo 1 Estadística Descriptiva 1.1.

Más detalles

Compiladores: Análisis Sintáctico. Pontificia Universidad Javeriana Cali Ingenieria de Sistemas y Computación Prof. Gloria Inés Alvarez V.

Compiladores: Análisis Sintáctico. Pontificia Universidad Javeriana Cali Ingenieria de Sistemas y Computación Prof. Gloria Inés Alvarez V. Compiladores: Análisis Sintáctico Pontificia Universidad Javeriana Cali Ingenieria de Sistemas y Computación Prof. Gloria Inés Alvarez V. Sintaxis Define la estructura del lenguaje Ejemplo: Jerarquía en

Más detalles

> Capítulo 3. Los sustantivos. Aspectos semánticos: clases de sustantivos 29. > Capítulo 4. Los sustantivos. Aspectos morfológicos: género y número 37

> Capítulo 3. Los sustantivos. Aspectos semánticos: clases de sustantivos 29. > Capítulo 4. Los sustantivos. Aspectos morfológicos: género y número 37 «309 > Índice > Capítulo 1. Qué es la gramática? 9 Qué es la gramática? 9 Diferentes clases de gramáticas 10 La perspectiva pragmática 11 Niveles del conocimiento gramatical 12 Semántica 13 Morfología

Más detalles

Teoría de probabilidades

Teoría de probabilidades Modelos Probabilistas Teoría de probabilidades Teoría de probabilidades Definiremos como probabilidad a priori (P(a)) asociada a una proposición como el grado de creencia en ella a falta de otra información

Más detalles

ANÁLISIS LÉXICO Ing. Ronald Rentería Ayquipa

ANÁLISIS LÉXICO Ing. Ronald Rentería Ayquipa ANÁLISIS LÉXICO Ing. Ronald Rentería Ayquipa ANALIZADOR LÉXICO (AL) El Analizador léxico (scanner), lee la secuencia de caracteres del programa fuente, caracter a caracter, y los agrupa para formar unidades

Más detalles

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60

Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60 Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia

Más detalles

Analizador Sintáctico Ascendente

Analizador Sintáctico Ascendente Analizador Sintáctico Ascente Un Analizador Sintáctico (A. St.) Ascente construye el árbol desde las hojas hacia la raíz. Funciona por reducción-desplazamiento, lo cual quiere decir que, siempre que puede,

Más detalles

Bases Formales de la Computación: Redes de Bayes (segunda parte)

Bases Formales de la Computación: Redes de Bayes (segunda parte) Bases Formales de la Computación: Redes de Bayes (segunda parte) Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Razonamiento en Redes de Bayes

Más detalles

1. Introducción. 2. Componentes de la sintaxis. computacional. El análisis sintáctico es el esqueleto de. Dos problemas fundamentales:

1. Introducción. 2. Componentes de la sintaxis. computacional. El análisis sintáctico es el esqueleto de. Dos problemas fundamentales: Departamento de Lenguajes y Sistemas Informáticos Índice Tema 3 Análisis Sintáctico Ingeniería del Lenguaje Natural Curso 2007-2008 http://www.dlsi.ua.es/assignatures/iln/ 1. Introducción. 2. Componentes

Más detalles

ÁRBOLES DE SINTAXIS. Los nodos no terminales (nodos interiores) están rotulados por los símbolos no terminales.

ÁRBOLES DE SINTAXIS. Los nodos no terminales (nodos interiores) están rotulados por los símbolos no terminales. ÁRBOLES DE SINTAXIS ÁRBOL grafo dirigido acíclico. Los nodos no terminales (nodos interiores) están rotulados por los símbolos no terminales. Los nodos terminales (nodos hojas) están rotulados por los

Más detalles

Bases estadísticas del reconocimiento de patrones

Bases estadísticas del reconocimiento de patrones Bases estadísticas del reconocimiento de patrones César Martínez cmartinez _AT_ fich.unl.edu.ar Inteligencia Computacional FICH-UNL Percepción humana Tarea muuuuy simple: Cuántas llaves hay? Inteligencia

Más detalles

IDENTIFICACIÓN DE SISTEMAS MÉTODOS POR SUB-ESPACIOS

IDENTIFICACIÓN DE SISTEMAS MÉTODOS POR SUB-ESPACIOS IDENTIFICACIÓN DE SISTEMAS MÉTODOS POR SUB-ESPACIOS Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Introduccion La teoría de sistemas

Más detalles

Lenguajes y Compiladores Análisis Sintáctico Parte I. Teoría Lenguajes 1

Lenguajes y Compiladores Análisis Sintáctico Parte I. Teoría Lenguajes 1 Facultad de Ingeniería de Sistemas Lenguajes y Compiladores Análisis Sintáctico Parte I 1 Introducción El analizador sintáctico recibe una secuencia de tokens y decide si la secuencia está correcta o no.

Más detalles

Enju. A fast, accurate, and deep parser for English

Enju. A fast, accurate, and deep parser for English Enju A fast, accurate, and deep parser for English Introducción Enju es un parser para el inglés Desarrollado en la Universidad de Tokio http://www.nactem.ac.uk/enju Basado en una gramática HPSG Output

Más detalles

REDES BAYESIANAS. O Redes de creencias

REDES BAYESIANAS. O Redes de creencias REDES BAYESIANAS O Redes de creencias Probabilidades conjuntas J: juega bolos. B: barre la casa todos los días. H: se dislocó el hombro. Introducción a RB Que son: Un grafo dirigido a cíclico (DAG) en

Más detalles

NOTACIÓN O GRANDE. El análisis de algoritmos estima el consumo de recursos de un algoritmo.

NOTACIÓN O GRANDE. El análisis de algoritmos estima el consumo de recursos de un algoritmo. NOTACIÓN O GRANDE El análisis de algoritmos estima el consumo de recursos de un algoritmo. Esto nos permite comparar los costos relativos de dos o más algoritmos para resolver el mismo problema. El análisis

Más detalles

Alineación de textos y traducción automática

Alineación de textos y traducción automática Alineación de textos y traducción automática ITALICA Universidad de Sevilla José A. Troyano Índice Introducción Alineamiento sin usar información léxica Alineamiento usando información léxica Traducción

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

Tema 01: Fundamentos del Análisis Asintótico de Algoritmos

Tema 01: Fundamentos del Análisis Asintótico de Algoritmos Tema 01: Fundamentos del Análisis Asintótico de Algoritmos Noviembre, 2003 CS0218: Algoritmos y Programación II Introducción En Ciencias de la Computación se presenta con frecuencia la situación de analizar

Más detalles

Tema 2. Introducción a la Estadística Bayesiana

Tema 2. Introducción a la Estadística Bayesiana 2-1 Tema 2 Introducción a la Estadística Bayesiana El teorema de Bayes Ejemplo Interpretación Ejemplo: influencia de la distribución a priori Ejemplo: densidad de flujo Probabilidad bayesiana Ejemplo:

Más detalles

Organización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos

Organización. Autómatas probabilísticos (AEFP) Definición de Autómata. Modelo de Markov. Ejemplo de AEFP. Modelos basados en autómatas probabilísticos Organización Modelos basados en autómatas probabilísticos Bioingeniería I Parte I Autómatas determinísticos Autómatas celulares. Aplicación modelos tejido excitable. Parte II Autómatas probabilísticos

Más detalles

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación

Más detalles

TRATAMIENTO DE VALORES NEGATIVOS EN EL TRIÁNGULO DE DESARROLLO UTILIZADO EN LA ESTIMACIÓN DE RESERVAS PARA SONR (IBNR)

TRATAMIENTO DE VALORES NEGATIVOS EN EL TRIÁNGULO DE DESARROLLO UTILIZADO EN LA ESTIMACIÓN DE RESERVAS PARA SONR (IBNR) TRATAMIENTO DE VALORES NEGATIVOS EN EL TRIÁNGULO DE DESARROLLO UTILIZADO EN LA ESTIMACIÓN DE RESERVAS PARA SONR (IBNR) Enrique de Alba y Roberto Bonilla ITAM OBJETIVO GENERAL Proponer una alternativa para

Más detalles

18 Análisis sintáctico III Compiladores - Profr. Edgardo Adrián Franco Martínez. Clasificación de métodos de análisis sintáctico Análisis descendente

18 Análisis sintáctico III Compiladores - Profr. Edgardo Adrián Franco Martínez. Clasificación de métodos de análisis sintáctico Análisis descendente 2 Contenido Clasificación de métodos de análisis sintáctico Análisis descendente Análisis descendente recursivo Análisis descendente predictivo Métodos deterministas Problemas del análisis descendente

Más detalles

CAPITULO 6 DISTRIBUCIONES MUESTRALES

CAPITULO 6 DISTRIBUCIONES MUESTRALES CAPITULO 6 DISTRIBUCIONES MUESTRALES MUESTRAS ALEATORIAS PARA DEFINIR UNA MUESTRA ALEATORIA, SUPONGAMOS QUE x ES UNA VARIABLE ALEATORIA CON DISTRIBUCIÓN DE PROBABILIDADA f(x). EL CONJUNTO DE n OBSERVACIONES

Más detalles

Desarrollo de un. español Tesis de Maestría en Informática Luis Chiruzzo Grupo de Procesamiento de Lenguaje Natural

Desarrollo de un. español Tesis de Maestría en Informática Luis Chiruzzo Grupo de Procesamiento de Lenguaje Natural Desarrollo de un parser HPSG para el español Tesis de Maestría en Informática Luis Chiruzzo Grupo de Procesamiento de Lenguaje Natural Agenda Parsers HPSG Enju HPSG para el español Corpus Ancora Desarrollo

Más detalles

Una comparativa de etiquetadores sintácticos aplicados al castellano

Una comparativa de etiquetadores sintácticos aplicados al castellano Una comparativa de etiquetadores sintácticos aplicados al castellano Manuel Díaz García Universidad Europea de Madrid C/ Tajo S/N Villaviciosa de Odón - Madrid helyos@terra.es Miguel Bravo Yubero Universidad

Más detalles

Regresión polinomial y factores

Regresión polinomial y factores Capítulo Regresión polinomial y factores.. Regresión polinomial Si una función media tiene un predictor X pueden usarse sus potencias enteras para aproximar E (Y X). El caso más simple es la regresión

Más detalles

Tema I Testing Estructurado

Tema I Testing Estructurado Tema I Testing Estructurado 4ta Parte Verificación y Validación de Software UNS Contenido Testing de Unidad: Caja Negra Grafos Causa Efecto Clases de Equivalencia Valores Límite Verificación y Validación

Más detalles

ANÁLISIS ESTADÍSTICO DEL COMPORTAMIENTO DEL PRIMER ETIQUETADOR CUBANO EN TRES DIFERENTES CORPUS DE LA PRENSA

ANÁLISIS ESTADÍSTICO DEL COMPORTAMIENTO DEL PRIMER ETIQUETADOR CUBANO EN TRES DIFERENTES CORPUS DE LA PRENSA ANÁLISIS ESTADÍSTICO DEL COMPORTAMIENTO DEL PRIMER ETIQUETADOR CUBANO EN TRES DIFERENTES CORPUS DE LA PRENSA Leonel Ruiz Miyares Centro de Lingüística Aplicada Ministerio de Ciencia, Tecnología y Medio

Más detalles

07 Variables. 7.1 Variables globales Definición

07 Variables. 7.1 Variables globales Definición 07 Variables 07 Variables 7.1 Variables globales 7.1.1. Definición Las variables se utilizan para almacenar datos individuales en disco o en memoria. Son datos globales a la aplicación y comunes, en el

Más detalles

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES

APRENDIZAJE PROBABILÍSTICO NAIVE BAYES 1 APRENDIZAJE PROBABILÍSTICO NAIVE BAYES Bases de Datos Masivas 9 de Noviembre de 2016 2 Razonamiento Probabilístico Es una herramienta de aprendizaje estadístico. Se trata de razonar en un contexto incierto;

Más detalles

ANÁLISIS DE DATOS. Jesús García Herrero

ANÁLISIS DE DATOS. Jesús García Herrero ANÁLISIS DE DATOS Jesús García Herrero ANALISIS DE DATOS EJERCICIOS Una empresa de seguros de automóviles quiere utilizar los datos sobre sus clientes para obtener reglas útiles que permita clasificar

Más detalles

Estimación del Probit Ordinal y del Logit Multinomial

Estimación del Probit Ordinal y del Logit Multinomial Estimación del Probit Ordinal y del Logit Multinomial Microeconomía Cuantitativa R. Mora Departmento de Economía Universidad Carlos III de Madrid Esquema Introducción 1 Introducción 2 3 Introducción El

Más detalles

ANÁLISIS DE FRECUENCIAS

ANÁLISIS DE FRECUENCIAS ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE

Más detalles

Teoría de Lenguajes. Gramáticas incontextuales

Teoría de Lenguajes. Gramáticas incontextuales Teoría de Lenguajes Gramáticas incontextuales José M. Sempere Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia Gramáticas incontextuales 1. Definiciones básicas.

Más detalles

Maxima Verosimilitud [Escribir el subtítulo del documento] Valores que hacen mas verosímil la información

Maxima Verosimilitud [Escribir el subtítulo del documento] Valores que hacen mas verosímil la información Maxima Verosimilitud [Escribir el subtítulo del documento] Valores que hacen mas verosímil la información Theodoro Perez Brito 24/05/2009 1. Principio de la máxima Verosimilitud: Supongamos que la distribución

Más detalles