Tagging. POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias.

Documentos relacionados
Uso de cadenas de Markov para la desambiguación morfológica y su aplicación al castellano

Técnicas básicas en el tratamiento informático de la lengua

Etiquetado gramatical

Un etiquetador morfológico para el español de Cuba

Curso de Inteligencia Artificial

Procesadores de Lenguaje

Desambiguación del Sentido de las Palabras (Word Sense Disambiguation)

Desambigüación del sentido de las palabras (WSD)

WSD usando Modelos de probabilidad de Máxima Entropía

Clases de palabras y POS tagging

Raúl

Desambiguación léxica basada en redes neuronales para el castellano

Introducción al procesamiento del lenguaje natural (PLN)

Seminario de análisis del discurso

SKETCH ENGINE. Seminario de Traducción Automática Magíster en Traducción Pontificia Universidad Católica de Chile

UNIVERSIDAD DE LOS ANDES FACULTAD DE INGENIERÍA DIVISIÓN DE ESTUDIOS DE POSTGRADO POSTGRADO EN COMPUTACIÓN

Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Proposición de un modelo para la acentuación automática de palabras ambiguas del español, utilizando etiquetado de texto

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D

Ampliación automática de corpus mediante la colaboración de varios etiquetadores

Análisis Léxico de Unidades Léxicas Compuestas MARC ORTEGA GIL. Universidad Autónoma de Barcelona

3.2. Análisis sintáctico

3. ESTRUCTURA DE UN CONVERSOR TEXTO-VOZ

Curso. Lingüística Aplicada III (Procesamiento inteligente de textos)

Text Mining Introducción a PLN

Desambiguación Léxica de Sustantivos usando la Web

Etiquetación automática en corpus textuales cubanos. Primeros resultados.

Universidad Fermín Toro. Cabudare Lara

Curso de procesamiento del lenguaje natural

Un lematizador desambiguado con R

Consideraciones de diseño para una herramienta de análisis semántico

Desambiguación Léxica de Sustantivos usando la Web

UN MÉTODO PARA LA DESAMBIGUACIÓN SINTÁCTICA DE TIPO COORDINATIVO Y PREPOSICIONAL A METHOD FOR COORDINATIVE AND PREPOSITIONAL SYNTACTIC DISAMBIGUATION

SINTAXIS DE LAS PARTÍCULAS

UN MÓDULO DE DESAMBIGUACIÓN MORFOSINTÁCTICA PARA EL

ANÁLISIS ESTADÍSTICO DEL COMPORTAMIENTO DEL PRIMER ETIQUETADOR CUBANO EN TRES DIFERENTES CORPUS DE LA PRENSA

Bases estadísticas del reconocimiento de patrones

CAPÍTULO 11 CONCLUSIONES Y LÍNEAS FUTURAS DE INVESTIGACIÓN

CAPÍTULO 3. GRASP (Greedy Randomized Adaptive Search Procedures). Los problemas de optimización surgen de las situaciones de aplicación práctica.

Modelo del Lenguaje. N-gramas.

CURRÍCULO DE CONOCIMIENTO DEL LENGUAJE DE 2º ESO

Procesamiento de voz - Reconocimiento de voz II

Tarea 2. José Alberto Benítez Andrades A. Descubrimiento de Información en Textos

Natural Language Processing. Estudio realizado por E. G. Ortiz-García

Tareas de la minería de datos: clasificación. CI-2352 Intr. a la minería de datos Prof. Braulio José Solano Rojas ECCI, UCR

Apéndice A: Matrices de confusión y resultados de precisión, exhaustividad y medida F

Object Recognition as Machine Translation: Learning a Lexicon for a Fixed Image Vocabulary

UNIVERSIDAD CARLOS III DE MADRID

Reentrenamiento: Aprendizaje Semisupervisado de los Sentidos de las Palabras

Desarrollo de un. español Tesis de Maestría en Informática Luis Chiruzzo Grupo de Procesamiento de Lenguaje Natural

Análisis de dependencias no supervisado basado en Gramáticas Biléxicas

Técnicas de etiquetado y desambiguación morfológica del inglés con reducida información contextual

Análisis morfosintáctico estadístico en lengua gallega

Tema 4: Gramáticas independientes del contexto. Teoría de autómatas y lenguajes formales I

Introducción al Procesamiento de Lenguaje Natural. Obligatorio Corrector Ortográfico en Python

Curso de procesamiento del lenguaje natural

Clustering para la inicialización de HMM en RAH. Jorge Luis Guevara Díaz

2 Conceptos de PLN: Análisis Sintáctico Superficial. 3 Conceptos de PLN: Semántica Léxica. 4 Extracción de Información. 5 Búsqueda de Respuestas

Tecnologías del Lenguaje Humano aplicadas al aprendizaje de segundas lenguas

Tareas de la minería de datos: clasificación. PF-5028 Minería de datos Prof. Braulio José Solano Rojas UCR

1. Introducción. 2. Componentes de la sintaxis. computacional. El análisis sintáctico es el esqueleto de. Dos problemas fundamentales:

Contextualización del aprendizaje automático en procesamiento del lenguaje natural. Contexto

Identificación de Entidades con Nombre basada en Modelos de Markov y Árboles de Decisión

Clasificación Clasific NO SUPERV SUPER ISAD IS A AD AGRUPAMIENTO

Técnicas de aprendizaje sobre series temporales

ANEXO 1: DOCUMENTO ICONIX. Nº Requisito Funcional Prioridad 1 La aplicación será desarrollada en lenguaje JAVA. NF 1

TECNICAS DE PROCESADO Y REPRESENTACION DE LA SEÑAL DE VOZ PARA EL RECONOCIMIENTO DEL HABLA EN AMBIENTES RUIDOSOS

PLN y aprendizaje automático

Una comparativa de etiquetadores sintácticos aplicados al castellano

Profesor de Español para Extranjeros ELE

Procesadores de lenguaje Tema 5 Comprobación de tipos

Tema 15: Combinación de clasificadores

Curso de traducción automática de lenguas naturales

Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO

Criterio de implementación de un HMM usando LogProb. Jorge Luis Guevara Díaz Escuela de Informática

GRIEGO II : OBJETIVOS, CONTENIDOS, CRITERIOS DE EVALUACIÓN UNIDAD DIDÁCTICA I

UNA PROPUESTA Y UN ETIQUETADOR DE CODIFICACIÓN MORFOSINTÁCTICA PARA CORPUS DE REFERENCIA EN LENGUA ESPAÑOLA 1

STR. Un generador de etiquetadores supervisados basado en TextRank F. Javier Ortega, P

Aprendizaje: Boosting y Adaboost

Reconocimiento Automático de Voz

Introducción. El proceso de traducción

Unidad II: Análisis semántico

Una Propuesta para el Etiquetado Automático de Roles Semánticos

TITULACIÓN: Grado en Filología Hispánica CENTRO: Facultad de Humanidades y Ciencias de la Educación CURSO ACADÉMICO: GUÍA DOCENTE

Enju. A fast, accurate, and deep parser for English

Técnicas de Preprocesado

Temas de Reflexión en el

GRIEGO CRITERIOS DE EVALUACIÓN

Los roles semánticos en la tecnología del lenguaje humano: anotación y aplicación. Paloma Moreda Pozo

Lenguajes y Compiladores Aspectos Formales (Parte 1) Compiladores

ANÁLISIS LÉXICO Ing. Ronald Rentería Ayquipa

Índice general. Manual de introducción a la lingüística descriptiva

Compiladores: Análisis Sintáctico. Pontificia Universidad Javeriana Cali Ingenieria de Sistemas y Computación Prof. Gloria Inés Alvarez V.

Text Mining. Laura Alonso i Alemany. Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina)

AREA/MATERIA: Griego II (LOMCE) (00,07,50,01,21,20,02,51,90,40,30) CURSO: 2º ETAPA: Bachillerato de Humanidades y Ciencias Sociales

Adquisición de subcategorizaciones verbales mediante un clasificador automático

Colección de Tesis Digitales Universidad de las Américas Puebla. Romero Martínez, Modesto

Lingüística de Corpus aplicada a la corrección automática y profesional. 29 de marzo de 2014

Podado y lexicalización de reglas gramaticales y su aplicación al análisis sintáctico parcial

Transcripción:

Tagging POS Tagging Taggers basados en reglas Taggers estadísticos Taggers y aprendizaje automático Combinación de estrategias PLN Tagging 1

POS Tagging Las palabras, tomadas en forma aislada, son ambiguas respecto a su categoría Yo bajo con el hombre bajo a PP AQ NC SP TD tocar el bajo bajo la escalera. TD SP AQ NC SP AQ NC SP PLN Tagging 2 NC TD NC PP AQ NC SP NC NC SP FP

POS Tagging La categoría de la mayoría de las palabras no es ambigua dentro de un contexto Yo bajo con el hombre bajo a PP AQ NC SP TD tocar el bajo bajo la escalera. TD SP AQ NC SP AQ NC SP PLN Tagging 3 NC TD NC PP AQ NC SP NC NC SP FP

POS Tagging Solución: desambiguador morfosintáctico (Pos tagger) El objetivo de un desambiguador (tagger) es el de asignar a cada palabra la categoría más "apropiada", dentro de un contexto Basados en reglas Estadísticos Híbridos PLN Tagging 4

POS Tagging W = w 1 w 2 w n cadena de palabras T = t 1 t 2 t n cadena de etiquetas Para cada palabra w i sólo algunas de las etiquetas son válidas (excepto las palabras desconocidas). Podemos obtenerlas a partir de un diccionario o de un analizador morfológico. f : W T = f(w) PLN Tagging 5

Taggers basados en reglas (1) Utilización de conocimiento lingüístico (knowledgedriven taggers) Construcción (normalmente) manual de las reglas Número limitado (~1000) de reglas Modelos del lenguaje y generalizaciones establecidos de forma explícita PLN Tagging 6

Taggers basados en reglas (2) + Reglas motivadas lingüísticamente + Alta precisión ej. EngCG 99.5% Alto coste de desarrollo No transportable mayor coste de etiquetado TAGGIT, Green,Rubin,1971 TOSCA, Oosdijk,1991 Constraint Grammars, EngCG, Voutilainen,1994, Karlsson et al, 1995 AMBILIC, de Yzaguirre et al,2000 PLN Tagging 7

Taggers basados en reglas (3) Una CG consiste en una secuencia de subgramáticas cada una de las cuales consiste en una serie de restricciones (constraints) que establecen condiciones de contexto ej. (@w =0 VFIN (-1 TO)) descarta la categoría VFIN si la palabra anterior es to ENGCG desambiguación morfosintáctica reduccionista 1100 restricciones 93-97% de las palabras quedan totalmente desambiguadas 99.7% corrección reglas heurísticas aplicables sobre el residuo 2-3% ambigüedad residual con 99.6% de precisión CG sintáctica http://beta.visl.sdu.dk (demos) PLN Tagging 8

Taggers estadísticos (1) Modelos del lenguaje adquiridos automáticamente (a partir de corpus anotado = supervisado) Data-driven taggers Uso de inferencia estadística Técnicas procedentes del tratamiento del habla PLN Tagging 9

Taggers estadísticos (2) + Marco teórico bien fundamentado + Aproximación clara. Modelos simples. + Precisión aceptable > 97% + Independencia de la lengua Aprendizaje del modelo CLAWS, Garside et al, 1987 De Rose, 1988 Church, 1988 Cutting et al, 1992 Merialdo, 1994 Sparseness Menor precisión PLN Tagging 10

Taggers estadísticos (3) Modelos del lenguaje de tipo N-gram suavizado (smoothing) interpolación Modelos ocultos de Markov (HMM) Aprendizaje supervisado ML (maximum likelihood) Aprendizaje semi-supervisado Forward-Backward, Baum-Welch (EM Expectation Maximization) Charniak, 1993 Jelinek, 1998 Manning, Schütze, 1999 PLN Tagging 11

Taggers estadísticos (4): N-gramas Las palabras se clasifican en función de sus etiquetas morfosintácticas modelo 1-grama MLE (Maximun Likelyhood Estimation) si se dispone de corpus etiquetado (desambiguado = anotado con la categoria correcta) EM (Expectation Maximization) si no es así Problema del sparseness PLN Tagging 12

PLN Tagging 13 = n k k k k k k n n t t t w P t t t P w w t t P n 1 1 2 1 1 ) ( ), ( ),,,, ( arg max 1 Probabilidad contextual (trigrams) Probabilidad léxica Taggers estadísticos (4): ejemplo N-gramas

Taggers y aprendizaje automático Transformaciones guiadas por los errores (Transformation-based errordriven) sistema híbrido: basado en reglas adquiridas semi-automáticamente Máxima Entropía Combinación de varias fuentes de conocimiento No se asume independencia Admite gran número de parámetros (ej. rasgos léxicos) Brill, 1995 Roche,Schabes, 1995 Ratnaparkhi, 1998, Rosenfeld, 1994 Ristad, 1997 PLN Tagging 14

Taggers y aprendizaje automático: Brill Tagger Basado en reglas de transformación que solucionan los errores producidos por un tagger inicial regla cambiar la etiqueta A por la etiqueta B cuando... cada regla corresponde a la instanciación de un patrón patrones... la palabra anterior (siguiente) está etiquetada con Z alguna de las dos palabras anteriores (siguientes) está etiquetada con Z la palabra anterior está etiquetada con Z y la siguiente con W Aprendizaje de las variables A, B, Z, W a base de un proceso iterativo que escoge en cada iteración la regla (la instanciación) que más errores corrige PLN Tagging 15

Taggers y aprendizaje automático: Brill Tagger Transformation-based Error Driven Learning Es un algoritmo de aprendizaje voraz greedy dirijido por los errores que iterativamente adquiere un conjunto de reglas de transformación Primeramente, se etiqueta el texto anotado (el de aprendizaje) mediante otro etiquetador (por ejemplo un HMM o la etiqueta más frecuente) Entonces, el algoritmo añade en cada paso la regla de transformación que mejor repara los errores actuales PLN Tagging 16

Taggers y aprendizaje automático: Brill Tagger Se adquiere un conjunto de reglas concretas instanciando un conjunto predefinido de patrones Conjunción de condiciones -> transformación Al anotar un nuevo texto se aplican las reglas de transformación en el orden en que se han generado Anotador_Inicial = Etiqueta más frecuente Tres tipos de patrones No lexicalizados Lexicalizados Morfológicos para tratar palabras desconocidas PLN Tagging 17

Taggers y aprendizaje automático: Brill Tagger Patrones no lexicalizados PLN Tagging 18

Taggers y aprendizaje automático: Brill Tagger PLN Tagging 19

Taggers y aprendizaje automático: Brill Tagger Patrones no lexicalizados (mejores reglas adquiridas) PLN Tagging 20

Taggers y aprendizaje automático: Brill Tagger Patrones lexicalizados PLN Tagging 21

Taggers y aprendizaje automático: Brill Tagger Patrones morfológicos para tratar palabras desconocidas PLN Tagging 22

Taggers y aprendizaje automático: Brill Tagger Patrones morfológicos para tratar palabras desconocidas PLN Tagging 23

Taggers y aprendizaje automático: Brill Tagger Palabras desconocidas: mejores reglas PLN Tagging 24

Taggers y aprendizaje automático: Brill Tagger Palabras desconocidas: mejores reglas PLN Tagging 25

Taggers y aprendizaje automático: Brill Tagger Usando como corpus anotado 600 Kw del Wall Street Número de reglas de transformación: <500 Corrección (accuracy): 97.0% - 97.2% (sin palabras desconocidas) La corrección de un etiquetador HMM de 3-gramas se consigue solo con 86 reglas 96.6% considerando palabras desconocidas PLN Tagging 26

Taggers y aprendizaje automático: Brill Tagger Usando como corpus anotado 600 Kw del Wall Street Número de reglas de transformación: <500 Corrección (accuracy): 97.0% - 97.2% (sin palabras desconocidas) La corrección de un etiquetador HMM de 3-gramas se consigue solo con 86 reglas 96.6% considerando palabras desconocidas PLN Tagging 27

Taggers y aprendizaje automático: Brill Tagger Transformation-based Error-driven Learning: TB(ED)L POS Tagging (Brill 92,95; Roche & Schabes 95; Aone & Hausman 96) PP-attachment disambiguation (Brill & Resnik, 1994) Grammar induction and Parsing (Brill, 1993) Context-sensitive Spelling Correction (Mangu & Brill, 1996) Word Sense Disambiguation (Dini et al., 1998) Dialogue Act Tagging (Samuel et al., 1998a,1998b) Semantic Role Labeling (Higgins, 2004; Williams et al., 2004; CoNLL- 2004) PLN Tagging 28

Taggers y aprendizaje automático: Brill Tagger Mayores problemas de TB(ED)L Coste computacional Memoria y tiempo (especialmente en el Training) Algunas propuestas Ramshaw & Marcus (1994) LazyTBL (Samuel 98) TBL (Lager 99) ICA (Hepple 00) FnTBL (Ngai & Florian, 01) PLN Tagging 29

Taggers y aprendizaje automático Árboles de decisión Aprendizaje supervisado ej. TreeTagger Aprendizaje basado en casos (Case-based, Memory-based Learning) IGTree Aprendizaje por relajación Restricciones (constraints) de tipo estadístico o lingüístico ej. RELAX Black,Magerman, 1992 Magerman 1996 Màrquez, 1999 Màrquez, Rodríguez, 1997 TiMBL Daelemans et al, 1996 Padrò, 1997 PLN Tagging 30

Taggers aprendizaje automático: TreeTagger ambigüedad IN/RB IN (preposición) RB (adverbio) interpretación estadística: ^ otros raiz P(IN)=0.81 P(RB)=0.19 Word Form... P( RB word= A/as & tag(+1)=rb & tag(+2)=in) = 0.987 otros As, as P(IN)=0.83 P(RB)=0.17 tag(+1)... IN RB P(IN)=0.13 P(RB)=0.87 tag(+2) ^ P( IN word= A/as & tag(+1)=rb & tag(+2)=in) = 0.013 P(IN)=0.013 P(RB)=0.987 hoja PLN Tagging 31

Taggers: Combinación de estrategias Combinación de modelos del lenguaje en un tagger STT+ RELAX Combinación de taggers mediante votación aprendizaje mediante bootstrapping Combinación de clasificadores bagging (Breiman, 1996) boosting (Freund, Schapire, 1996) Màrquez, Rodríguez, 1998 Màrquez, 1999 Padrò, 1997 Màrquez et al, 1998 Brill, Wu, 1998 Màrquez et al, 1999 Abney et al, 1999 PLN Tagging 32

Taggers: Combinación de estratégias: STT+ Language Model Lexical probs. + + N-grams Contextual probs. Raw text Morphological analysis Viterbi algorithm Tagged text Disambiguation PLN Tagging 33

Taggers: Combinación de estratégias: Relax Language Model N-grams + + Linguistic rules Set of constraints Raw text Morphological analysis Relaxation Labelling (Padró, 1996) Tagged text Disambiguation PLN Tagging 34

Medidas de calidad del etiquetado nivel de la oración: porcentaje de oraciones etiquetadas correctamente f(w) = argmax p(t/w) T Algoritmo de Viterbi (esquema de P. dinámica) Más sencillo de implementar Más sencillo de interpretar lingüísticamente nivel de la palabra: porcentaje de palabras etiquetadas correctamente f(w) i = argmax p(ti/w) T Algoritmo ML (verosimilitud máxima) Puede producir secuencias no gramaticales PLN Tagging 35