Detección de palabras claves en lenguajes sin datos de entrenamiento
|
|
- Lucas Gómez Vega
- hace 6 años
- Vistas:
Transcripción
1 Detección de palabras claves en lenguajes sin datos de entrenamiento Pablo Brusco 1, Luciana Ferrer 1,2, Agustín Gravano 1,2 1 Departamento de Computación, FCEN, UBA 2 Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) {pbrusco,lferrer,gravano}@dc.uba.ar Resumen Estudiamos el problema de detección de palabras claves (keyword-spotting) para idiomas que no disponen de corpus de datos con grabaciones y transcripciones fonéticas. Este problema es de central importancia para poder realizar búsquedas en bases de datos de grabaciones de habla. Usando el Boston University Radio Speech Corpus como corpus de referencia, analizamos diversas topologías y parametrizaciones de Modelos Ocultos de Markov para la detección de palabras sobre habla continua. Los modelos se basan en el uso de fillers para palabras no buscadas, y empleamos fonemas como unidades mínimas de detección. Para las pruebas, utilizamos un conjunto de 20 keywords entrenadas con 14 minutos de datos transcriptos y fillers entrenados con 7 horas sin transcripciones. Los resultados muestran que el mejor modelo alcanza rendimientos superiores a un 0.47 de FOM promedio, un porcentaje de detecciones correctas del 72.1 % y 3.95 falsas alarmas por hora por keyword. Palabras claves: Keyword-Spotting, Automatic Speech Recognition, Hidden Markov Models, Speech Data Mining. 1. Introducción El problema de Keyword-Spotting en habla (también llamado Word-Spotting) consiste en detectar palabras claves en grabaciones de habla continua. Este problema es de central importancia en aplicaciones de búsqueda de información en bases de datos de habla crudas (es decir, que no cuentan con transcripciones ni otras anotaciones). El Keyword-Spotting puede ser considerado un sub-problema del Reconocimiento Automático del Habla (ASR, del inglés Automatic Speech Recognition) y, por lo tanto, utilizando los mismos algoritmos podemos transcribir a palabras todo el audio donde deseamos ubicar las keywords, y luego buscar texto en texto como es habitual realizar búsquedas. De todas formas, este mecanismo tiene una gran desventaja. El ASR no es un problema fácil de resolver y solo funciona bien bajo una gran cantidad de supuestos. Entre ellos, se necesitan grandes corpus de datos de entrenamiento (es decir, habla transcripta a nivel de palabras e incluso, para mejores resultados, a nivel fonemas) que suelen escasear en la mayoría de
2 2 Detección de palabras claves en lenguajes sin datos de entrenamiento los lenguajes. La gran mayoría de los trabajos (papers, tesis, aplicaciones comerciales, etc.) se basan en tener cierto conocimiento del idioma. Por ejemplo, suelen utilizar corpus como DARPA Resource Management Database o TIMIT para reconocer palabras en inglés. En este trabajo analizamos la factibilidad de construir un sistema bajo la restricción de tener una cantidad mínima de audio transcripto para entrenamiento. Una vez construido, exploramos distintas dimensiones en busca de una performance aceptable para este tipo de tareas. 2. Trabajo Previo Los antecedentes del problema de detección de palabras claves están estrechamente relacionados con los antecedentes en reconocimiento del habla general. Desde la década de los 70, trabajos como el de Bridle [1] se basaron en el uso de Dynamic Time Warping (DTW). DTW es una técnica que utiliza programación dinámica para medir similitudes entre dos secuencias temporales que pueden tener desfasajes, en este caso, dos secuencias de audio en búsqueda de coincidencias. Esta técnica probó ser útil cuando el reconocimiento se hace sobre datos parecidos a los de entrenamiento; pero en cuanto se agrega variabilidad, demostró no escalar. En especial para la detección de palabras claves, importantes aportes fueron presentados por Bridle, quien introduce la utilización de modelos de filler: representación de palabras fuera del conjunto de palabras buscadas. Más recientemente, a partir del trabajo de Rabiner [9], se ha popularizado el uso de Modelos Ocultos de Markov (HMMs) de distribuciones continuas utilizando palabras o sub-palabras como unidades acústicas para la tarea de reconocimiento del habla, desde entonces, la técnica más utilizada. El uso de sub-palabras facilita el reuso de entrenamiento entre palabras que comparten ciertas partes permitiendo, por ejemplo, el reconocimiento de palabras fuera del conjunto de entrenamiento. En el caso de la detección de palabras claves, el uso de estos modelos fue aplicado por primera vez por Rohlicek y col. [10] y Rose y Paul [11] marcando el comienzo de numerosos estudios basados en sus ideas. Cabe destacar que el trabajo de Rose y Paul [11] indica que para conseguir una buena performance se necesita entrenar un modelo de filler complejo utilizando grandes cantidades de datos transcriptos o modelos preexistentes. En particular, utilizan un HMM que conecta completamente todos los posibles modelos de sub-unidades del lenguaje. Por otro lado, hay trabajos como el de Weintraub [13] que complejizan aún más estos modelos utilizando modelos de vocabulario completo que excluyen a las keywords. Esta técnica funciona muy bien pero requiere una gran cantidad de datos de entrenamiento. Trabajos como el de Moore [7] muestran que un sistema de reconocimiento general disminuye hasta un 15 % de efectividad al trabajar con poca cantidad de datos (usando bases de datos de menos de 100 horas). El problema de detección de palabras claves tiene ciertas características que hacen posible realizar un sistema con corpus mucho menores a los necesarios
3 Detección de palabras claves en lenguajes sin datos de entrenamiento 3 para el reconocimiento general de habla, manteniendo una performance razonable. Existen trabajos basados en la idea de utilizar la menor cantidad posible de datos. Por ejemplo, Thambiratnam [12] dedica un capítulo de sus tesis de doctorado a evaluar sistemas para lenguajes distintos al inglés. En particular, muestra cómo se ve afectado un detector de palabras claves al variar entre 164, 15 y 4 horas de entrenamiento en inglés, español e indonés. Su trabajo concluye que el reconocimiento de palabras claves sufre menos en performance ante la falta de datos que las tareas de reconocimiento general del habla. De todas maneras, este trabajo utiliza la totalidad de horas de entrenamiento para formar modelos de fonemas reuniendo información de todas las palabras presentes en las grabaciones. Más allá de compartir las mismas motivaciones que el trabajo de Thambiratnam [12], la forma en que encaramos la solución al problema es distinta. Basamos esta afirmación en el hecho de utilizar 14 minutos de datos transcriptos y el resto de los datos (no transcriptos) para el entrenamiento de los modelos de fillers. De esta manera el trabajo previo a la construcción del reconocedor disminuye notablemente. También, el artículo de Garcia y Gish [4] explica que con solo 15 minutos de transcripciones junto a un modelo de reconocimiento que define sus propias unidades de sonido en base a modelos segmentales se puede alcanzar una gran performance. De todas maneras, en esta tesis decidimos utilizar el enfoque estándar de HMMs con distribuciones continuas que han probado funcionar muy bien con grandes cantidades de datos. 3. Diseño del Sistema Para nuestros experimentos construimos un sistema usando la herramienta Hidden Markov Model Toolkit (HTK), la cual integra funciones útiles para trabajar con HMMs [14]. Nuestro sistema se basa en la gramática de estados finitos representada en la Figura 1, que refleja los posibles estados en los que puede estar el proceso de reconocimiento sobre una grabación. En este caso, se permite una cantidad indeterminada de apariciones de keywords y fillers, intercaladas libremente. Keyword 1 Keyword 2 λ start λ... end Keyword n Filler Figura 1: Gramática de estados finitos
4 4 Detección de palabras claves en lenguajes sin datos de entrenamiento Cada keyword se encuentra modelada por su secuencia de fonemas y, a su vez, dichos fonemas son modelados por HMMs con topología left-right de tres estados emisores. 1 Por su parte, todos los fillers se representan mediante un único HMM ergódico de tres o cinco estados emisores. 2 Cada uno de estos estados tiene asociada una probabilidad de emisión modelada mediante Mezclas de Gaussianas con una cantidad determinada de mezclas. Tanto la cantidad de mezclas como la cantidad de estados del HMM ergódico de los fillers serán estudiados en los experimentos descriptos en la Sección 5. Por último, una vez entrenado un HMM como el detallado, lo ponemos en funcionamiento de la siguiente manera. Dada una grabación nueva en la cual deseamos detectar la aparición de keywords, utilizamos el algoritmo de decodificación de Viterbi para encontrar el camino óptimo en el HMM (es decir, el camino de mayor verosimilitud dada la grabación nueva). De esta manera, el sistema devuelve la secuencia más probable de palabras y fillers, y devuelve además un puntaje de verosimilitud que utilizaremos para las métricas en las evaluaciones. 4. Corpus de Datos El corpus de datos utilizado es el Boston University Radio Speech Corpus [8]. Consiste en grabaciones radiales de lecturas de noticias hechas por locutores profesionales. Consta de siete lectores (cuatro hombres y tres mujeres) dedicados a anunciar noticias en radio FM, que produjeron grabaciones en dos etapas: por un lado, en un laboratorio de la Universidad de Boston donde se les pidió que leyeran 24 historias alternando su manera de hablar entre forma radial y no radial; por otro lado, más de siete horas de audio tomadas directamente del programa radial en los estudios de la WBUR (una radio local de Boston). El audio fue digitalizado a 16kHz y 16 bits. Tanto las historias leídas como los programas de radio fueron anotados con transcripciones ortográficas generadas a mano con precisión a nivel palabra. Es decir, cada palabra está marcada con un tiempo que indica el momento en que terminó de decirse la misma en la grabación. Luego, se estima el comienzo de la palabra siguiente tomando el fin de la inmediata anterior. Analizando el tamaño y la escasa cantidad de locutores, se tomó la decisión de dividir al corpus en seis grupos uniformes. Para ello, se listaron todos los archivos de grabaciones ordenados alfabéticamente y se recorrieron asignando cada uno a un grupo de pertenencia, entre 1 y 6. De esta manera, la cantidad de grabaciones por grupo pertenecientes a cada hablante y en cada situación es pareja. Una vez separados, se tomaron 4/6 del total (7.31 horas) de las frases para entrenamiento, 1/6 (1.8 horas) para testeo y 1/6 (1.9 horas) para resultados finales que se ignoran durante todo el desarrollo del sistema. Junto con esta 1 En una topología left-right, los estados se disponen de izquierda a derecha, de modo que solamente se puede avanzar hacia la derecha, sin volver atrás. 2 En una topología ergódica se permite pasar de cualquier estado a cualquier otro.
5 Detección de palabras claves en lenguajes sin datos de entrenamiento 5 división, se adjuntaron a cada grabación las transcripciones correspondientes que permiten realizar el entrenamiento y la evaluación. También se realizó una división del corpus por hablante para una de las pruebas finales. En este caso se dividió el corpus por hablante y se hizo una rotación en la cual se selecciona de a un hablante y luego se toman todos sus archivos para testeo y el resto del corpus para entrenamiento. De esta manera se hace un estudio del sistema cuando el hablante no es parte del corpus de entrenamiento. Una vez fijada la porción del corpus para entrenamiento, se procedió a marcar las ocurrencias de keywords en el audio. De esta manera, los datos de entrenamiento quedaron divididos en dos partes. La primera, 14 minutos de datos transcriptos para 20 keywords. La segunda, el resto del tiempo (7 hs aproximadamente) fue dividido en intervalos regulares para el entrenamiento de fillers. El tamaño que se utiliza para cada uno de los intervalos regulares fue un factor a estudiar. Analizaremos en la sección de resultados como varía el modelo de fillers a medida que este intervalo cambia entre 100 y 500 ms. Además, decidimos trabajar con un conjunto de 20 keywords con nueve o más letras seleccionadas por ser las más frecuentes del corpus. En la Tabla 1 puede verse el conjunto de keywords seleccionadas para las pruebas. Las columnas relacionadas con apariciones muestran la cantidad de veces que aparece cada keyword en las transcripciones de referencia en entrenamiento, testing y control respectivamente. Por otro lado, se muestra la duración promedio de las palabras en el corpus. 5. Evaluación Durante la evaluación buscamos medir la performance del sistema a desarrollar, en busca de analizar su factibilidad en la práctica. Para ello simulamos el sistema bajo diversas parametrizaciones. Entrenamos los modelos usando datos transcriptos para entrenamiento, y luego testeamos sobre datos de referencia. En nuestros experimentos estudiamos varios de los factores antes mencionados, en busca de optimizarlos para alcanzar el mejor rendimiento posible del sistema. Las características principales en las que se concentró el estudio fueron: 1) la cantidad de mezclas Gaussianas para los modelos; 2) el intervalo de relleno con fillers; y 3) la cantidad de estados en el modelo de filler. El testeo se realizó sobre 1.8 horas de grabaciones en donde ocurren 313 apariciones de las keywords elegidas. Una vez que finalizó una prueba, el resultado consiste en un archivo que contiene, para cada grabación, detecciones de todas las keywords con tiempo de inicio y fin junto con un puntaje (una probabilidad) otorgado por el algoritmo de Viterbi. Estos resultados fueron luego comparados con las transcripciones de referencia, para estimar la performance del sistema. La manera elegida para estimar dicha performance consiste en contabilizar la cantidad de aciertos (Hits) y falsas alarmas (FA) que se encuentran en el resultado. Diremos que una detección res es un Hit si existe una aparición de la keyword en la referencia (que llamamos ref) tal que las palabras son idénticas y el tiempo medio de ref está entre los tiempos inicial y final de la detección res.
6 6 Detección de palabras claves en lenguajes sin datos de entrenamiento Es decir, t i (res) < t m (ref) < t f (res), donde t i, t m y t f representan el tiempo inicial, medio y final de una aparición. De otra manera, esa detección constituye una falsa alarma. Luego, calculamos la curva ROC (Receiver Operating Characteristic), una medición estándar muy utilizada que grafica la tasa de Hits contra el número de falsas alarmas por keyword por hora (fa/kw-hr). Para reducir esta representación a un único número, utilizamos la medida FOM (Figure of Merit) que equivale a la probabilidad promedio de detecciones correctas de 1 a 10 falsas alarmas por hora (ver Manos [6] y Brusco [2] para más detalles). Para mostrar los resultados en forma compacta, usamos el FOM promedio sobre todas las keywords analizadas Evaluación de tres características del sistema 1) Cantidad de mezclas Gaussianas: Las mezclas Gaussianas determinan las probabilidades de observación a partir de cada estado, y en consecuencia brindan flexibilidad en cuanto a reconocer mayor o menor variabilidad a partir de vectores acústicos. Es de esperar que modelos con mayor cantidad de mezclas reconozcan con más precisión sonidos similares a los utilizados para el entrenamiento. De todas maneras, un problema que puede surgir es el de sobre-ajuste (overfitting) con respecto a estos datos. La Figura 2 resume los experimentos realizados, los cuales se describen en las próximas secciones. Además, en los gráficos (a), (b) y (c) de dicha figura, el eje x corresponde a la cantidad de mezclas Gaussianas empleada. Con esto buscamos estudiar la evolución de la performance de cada configuración del sistema en función de dicha cantidad. En estos experimentos, aumentamos cada cinco reestimaciones el número de mezclas Gaussianas por estado, de a dos por incremento, y variando entre una y al menos 65 componentes. 2) Duración del intervalo para fillers: En nuestros experimentos variamos la duración del intervalo con el que se marcan los fillers, en busca de la duración óptima. Experimentamos con duraciones de 100, 200, 350 y 500 milisegundos, teniendo en cuenta que 200 ms se aproxima a la duración promedio de una sílaba en el idioma inglés [3, 5] y 500 ms a la de una palabra completa (la duración promedio de las palabras en este corpus es 480 ms). Puede observarse en la Figura 2(a) la notable superioridad en el FOM promedio cuando usamos intervalo de 200 ms, especialmente a partir de las 25 mezclas. En cambio, los resultados obtenidos para 500 ms no mejoran al aumentar las mezclas de Gaussianas. Por otro lado, los resultados obtenidos para 100 y 350 ms, aunque lejos del óptimo, muestran una tendencia a acercarse a un FOM de En consecuencia, en las siguientes pruebas trabajamos con 200 ms, para seguir explorando otras dimensiones de análisis. 3) Cantidad de estados en los fillers: A diferencia de los fonemas de keywords, que son modelados usando tres estados emisores, para el filler variamos entre tres y cinco estados, para estudiar la performance del sistema en cada caso. Nuestra intuición a priori nos indicaba que con cinco estados se lograría mayor
7 Detección de palabras claves en lenguajes sin datos de entrenamiento 7 flexibilidad en los modelos y, por lo tanto, menor cantidad de falsas alarmas. Mediante este experimento buscamos validar o refutar dicha intuición. La Figura 2(b) resume los resultados obtenidos de comparar tres contra cinco estados, variando al mismo tiempo la cantidad de mezclas, con modelos entrenados utilizando fillers cada 200 milisegundos (según lo discutido en la sección anterior). Observamos una rápida adaptación del modelo de cinco estados y un leve progreso en el de tres con una marcada superioridad en especial de 30 a 40 mezclas Gaussianas. En consecuencia, concluimos que conviene trabajar con cinco estados. Dada la marcada diferencia de performance entre tres y cinco estados, queda para trabajo futuro experimentar con un número mayor de estados. En conclusión, de este primer estudio obtenemos una clase de modelos que maximiza nuestras mediciones. Las características óptimas del sistema son: 1) 37 mezclas de Gaussianas; 2) intervalo para completar con fillers de 200 ms de longitud; y 3) cinco estados en el modelo de los fillers Prueba sobre set de control Para las siguientes pruebas se utilizó la sexta parte del corpus reservada para este propósito (ver Sección 3). Utilizando los mejores modelos entrenados para las pruebas en desarrollo, se testeó sobre esta reserva buscando obtener resultados más realistas por tratarse de datos no utilizados hasta el momento. Keyword DP AE AT AC %H FA FOM S I 1 ACCORDING ADMINISTRATION ASSOCIATION COMMITTEE DEMOCRATIC DEMOCRATS EDUCATION ENVIRONMENTAL GOVERNMENT LAWMAKERS LEGISLATURE MASSACHUSETTS MELNICOVE OFFICIALS POLITICAL PRESIDENT REPUBLICAN SPRINGFIELD SUPERINTENDENT YESTERDAY Resultados generales Tabla 1: Resultado control por keyword (37 mezclas sobre 1.9 hs de grabaciones) DP: Duración Promedio; AE: Apariciones en Entrenamiento; AT: Apariciones en Testing; AC: Apariciones en Control; %H: Porcentaje de Hits; FA: Falsa Alarmas; S: Sustituciones, I: Inserciones. La Tabla 1 resume los resultados de esta evaluación para cada una de las 20 keywords seleccionadas. Los resultados generales del mejor modelo superan 0.47
8 8 Detección de palabras claves en lenguajes sin datos de entrenamiento FOM promedio FOM promedio ms 200 ms 350 ms 500 ms Mezclas (a) Intervalo: FOM promedio Desarrollo Control Extendido Mezclas (c) Resultados: FOM promedio FOM promedio % Hits estados 5 estados Mezclas (b) Estados: FOM promedio MASSACHUSETTS MELNICOVE OFFICIALS Falsas Alarmas por hora (d) Curva ROC para tres keywords Figura 2: Resultados en desarrollo y control de FOM promedio, 72.1 % de Hits y 3.95 falsas alarmas por hora por keyword (con 326 apariciones de keywords totales en 1.9 horas de grabaciones). La Figura 2(d) muestra la curva ROC para tres keywords representativas. Puede verse en el eje x la cantidad de falsas alarmas por hora y el impacto que podría producir en el porcentaje de Hits optar por aceptar esa cantidad como umbral de detección para el sistema. En el caso de MASSACHUSETTS permitir 5 falsas alarmas por hora produciría un porcentaje de Hits máximo, en cambio, para MELNICOVE impactaría dejando un pésimo resultado. Por otra parte, la Figura 2(c) muestra que los mejores modelos poseen un comportamiento casi idéntico cuando se los testea sobre los datos de desarrollo y sobre los datos de control (círculos rojos y triángulos azules, respectivamente). Como prueba secundaria, utilizamos la misma configuración que produjo los mejores resultados en desarrollo y entrenamos nuevos modelos sobre los 5/6 del
9 Detección de palabras claves en lenguajes sin datos de entrenamiento 9 corpus utilizados en desarrollo (es decir, con un quinto más de datos). Llamamos a esta prueba resultado extendido (cuadrados marrones en la figura), y observamos un incremento en su performance, que se hace más notorio a partir de las 40 mezclas. Este último resultado es de particular importancia, pues muestra que, con más datos de entrenamiento, el sistema responde variando su performance de manera notable. Esto último hace pensar que sólo 15 minutos de datos transcriptos son insuficientes para que el sistema llegue a su mejor rendimiento Prueba por Hablante Este experimento midió la performance del sistema cuando se entrena con todos los hablantes salvo uno (estrategia leave-one-out) y luego se evalúa sobre ese hablante. Esto lo realizamos para analizar la robustez del sistema ante hablantes desconocidos. Para ello, se fue tomando cada uno de los siete hablantes presentes en el corpus y se entrenó con el resto del grupo, luego se probó sobre el hablante elegido y se tomaron los resultados. Este proceso se repitió por cada hablante, recolectando las detecciones en una sola tabla sobre la cual se calcula la performance global. Los resultados (medidos en FOM promedio) fueron 0.335, y para las mujeres y 0.034, 0.126, y para los hombres. La performance global fue de En consecuencia, podemos observar una gran degradación de la performance del sistema en general, aunque para ciertos hablantes funcionó al mismo nivel que los mejores resultados obtenidos en desarrollo, como los números en el tercer hombre. Estos resultados resultan esperables, dado que entrenar con sólo seis sujetos debería ser insuficiente para generalizar a nuevos hablantes. Para evaluar los resultados, hicimos una consulta informal a una estudiante de fonoaudiología en donde le pedimos que indique similitudes y diferencias entre las voces presentes y también características relevantes que pueda detectar. El resultado indicó que la voz de las tres mujeres es bastante similar entre sí y, además, la forma de hablar de la mujer 1 con la del hombre 3 tienen mucho en común. Por otra parte, la voz del hombre 1 parece ser muy monótona comparada con el resto. Esta información se ajusta con precisión a los resultados obtenidos. 6. Conclusiones y Trabajo Futuro Se construyó y estudió un sistema para detectar palabras claves en habla continua con una cantidad mínima de datos de entrenamiento. Utilizamos HMMs para modelar un conjunto predefinido de keywords, y un modelo de fillers para el resto de los sonidos presentes en las grabaciones (silencio y otras palabras). Luego, utilizando el Boston University Radio Speech Corpus entrenamos y evaluamos diversos modelos que permitieron la búsqueda de la mejor configuración. Las características exploradas son la cantidad de mezclas Gaussianas para los modelos (la cantidad óptima rondó las 37), la longitud del intervalo de relleno con fillers (200 ms), y la cantidad de estados en el modelo de filler (cinco estados).
10 10 REFERENCIAS En base a nuestro estudio, podemos concluir que es posible realizar un sistema con las características planteadas con un rendimiento aceptable y mejorable, sin la necesidad de incluir técnicas muy complejas ni grandes cantidades de datos transcriptos. Para poder construir un sistema con las características que hemos estudiado, se necesita un conjunto de grabaciones sin transcripciones (siete horas o más) con buena calidad de audio. Además, se deben anotar en los audios la ubicación exacta de cada keyword, y la suma de los tiempos de todas las keywords debe rondar los 14 minutos (asumiendo 20 keywords). Por otra parte, este estudio deja abierta una serie de preguntas sin responder relacionadas principalmente con la búsqueda de mejores resultados. Alguno de los caminos posibles a seguir son: ver cómo afecta al sistema la incorporación de nuevos datos de entrenamiento, ya sea mediante más repeticiones o mediante nuevas keywords; desarrollar una implementación de modelos de fillers más complejos, manteniendo la restricción de no tener datos transcriptos; estudiar el impacto de variar factores como pesos en la gramática o penalidad de inserción de palabras en el algoritmo de Viterbi; y considerar técnicas para lograr que el sistema sea más resistente a cambios de hablante. Referencias [1] John S Bridle. An efficient elastic-template method for detecting given words in running speech. En: Brit. Acoust. Soc. Meeting [2] Pablo Brusco. Keyword-spotting en idiomas sin datos de entrenamiento. Tesis de lic. Depto. de Computación, FCEN, UBA, Buenos Aires, Argentina, [3] W Nick Campbell. Syllable-based segmental duration. En: Talking machines: Theories, models, and designs (1992), págs [4] Alvin Garcia y Herbert Gish. Keyword spotting of arbitrary words using minimal speech resources. En: ICASSP. Vol [5] Raymond D Kent y LL Forner. Speech segment duration in sentence recitations by children and adults. En: Journal of Phonetics (1980). [6] Alexandros Sterios Manos. A study on out-of-vocabulary word modelling for a segment-based keyword spotting system. Tesis doct. MIT, [7] Roger K Moore. A comparison of the data requirements of automatic speech recognition systems and human listeners. En: INTERSPEECH [8] Mari Ostendorf, PJ Price y Stefanie Shattuck-Hufnagel. The Boston University radio news corpus. En: Linguistic Data Consortium (1995). [9] Lawrence Rabiner. A tutorial on hidden Markov models and selected applications in speech recognition. En: Proceedings of the IEEE 77.2 (1989). [10] J Robin Rohlicek y col. Continuous hidden Markov modeling for speaker-independent word spotting. En: ICASSP. IEEE [11] Richard C Rose y Douglas B Paul. A hidden Markov model based keyword recognition system. En: ICASSP. IEEE [12] Albert JK Thambiratnam. Acoustic keyword spotting in speech with applications to data mining. Tesis doct. Queensland University of Technology, [13] Mitchel Weintraub. Keyword-spotting using SRI s DECIPHER large-vocabulary speech-recognition system. En: ICASSP. Vol [14] S Young y col. The HTK-Book 3.4. En: Cambridge University, Cambridge, England (2006).
Experimentos Introducción
Capítulo 5 Experimentos 5.1. Introducción En este capítulo se describirán los desarrollos y resultados de los experimentos realizados con el sistema de reconocimiento de voz presentado en este proyecto.
Reconocimiento Automático de Voz
Reconocimiento Automático de Voz Presentación basada en las siguientes Referencias: [1] Rabiner, L. & Juang, B-H.. Fundamentals of Speech Recognition, Prentice Hall, N.J., 1993. [2] Rabiner, L. & Juang,
EXPERIMENTOS PRELIMINARES DE VERIFICACIÓN DE LOCUTORES CON UNA BASE DE DATOS REALISTA
EXPERIMENTOS PRELIMINARES DE VERIFICACIÓN DE LOCUTORES CON UNA BASE DE DATOS REALISTA José Antonio Rubio García, José Manuel Pardo Muñoz, Ricardo de Córdoba Herralde, Javier Macías Guarasa Grupo de Tecnología
Capítulo 4 Exploración del ambiente.
Capítulo 4 Exploración del ambiente. Para explorar el ambiente se tomó como base el vehículo explorador de Braitenberg, la idea es tomar este comportamiento y adaptarlo al uso de una cámara de video, esto
Histograma y Grafico de Control
2014 Histograma y Grafico de Control Sustentantes: Sabrina Silvestre 2011-0335 Juan Emmanuel Sierra Santos 2011-0367 Rosa Stefany Flech Mesón 2011-0436 Docente: Ing.MS Eliza N. González Universidad Central
Algunas nociones básicas sobre Estadística
Escuela de Formación Básica - Física 1 Laboratorio - 10 Semestre 2010 Comisiones 15 Y 16 (Docentes: Carmen Tachino - Graciela Salum) ntroducción Algunas nociones básicas sobre Estadística Como se ha explicado
TP-BETA-DAT. TEST PSICOMÉTRICO DAT Y BETA Documento: Glosario Alaro Coarite Vladimir Edwin Versión 1.0
TP-BETA-DAT TEST PSICOMÉTRICO DAT Y BETA Documento: Glosario Alaro Coarite Vladimir Edwin Versión 1.0 Control de Documento Proyecto Test Psicométrico DAT y BETA Título Glosario del Sistema [v1.0 12 de
Robótica basada en comportamientos. Laboratorio 0
Robótica basada en comportamientos Laboratorio 0 Grupo 04 Guillermo Ettlin C.I.: 4.533.770 9 Sebastián Caballero C.I.: 4.456.979 3 Grupo 04 1 Contenido Parte A... 3 Parte B... 5 1. Calibración... 5 2.
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción
II. 2. Análisis manual de imágenes médicas: Análisis de la curva ROC (Receiver Operating Characteristic).
II. 2. Análisis manual de imágenes médicas: Análisis de la curva ROC (Receiver Operating Characteristic). Psicofísica: calidad física de una imagen médica y calidad del diagnóstico El análisis de la curva
COIE UNIVERSIDAD COMPLUTENSE. coie UNIVERSIDAD COMPLUTENSE DE MADRID PERFIL PROFESIONAL LICENCIATURA DE BIOLOGÍA
PERFIL PROFESIONAL DE LA LICENCIATURA DE BIOLOGíA coie UNIVERSIDAD COMPLUTENSE DE MADRID CONSEJO SOCIAL VICERRECTORADO DE ALUMNOS LICENCIATURA DE BIOLOGÍA Los datos contenidos en este documento proceden
4.1 CONGRUENCIA ENTRE LOS OBJETIVOS DEL PLAN DE ESTUDIOS Y EL PERFIL DE EGRESO CON LAS LGAC:
4.1 CONGRUENCIA ENTRE LOS OBJETIVOS DEL PLAN DE ESTUDIOS Y EL PERFIL DE EGRESO CON LAS LGAC: A continuación se muestran los objetivos así como los mapas funcionales según la línea de acentuación y la línea
Introducción Modelando palabras no presentes en el vocabulario (OOV)
Clase nº 19 Año académico 2003 Modelando nuevas palabras Introducción Modelando palabras no presentes en el vocabulario (OOV) Formulación probabilística Métodos independientes del dominio Aprendizaje de
SOMI XVIII Congreso de Instrumentación TECNOLOGIAS DE LA INFORMACION RAM1847
Reconocedor de Voz Adaptado para mejorar la pronunciación de Inglés en Hispanos M.A. García Galván, R. Aréchiga Martínez Universidad Autónoma Metropolitana, Departamento de Electrónica. Av San Pablo #
Tema 5 Algunas distribuciones importantes
Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos
Modelos Para la Toma de Decisiones
Modelos Para la Toma de Decisiones 1 Sesión No. 5 Nombre: Modelos de decisión. Primera parte. Contextualización Modelos para decidir? Hemos visto herramientas de tipo más bien matemático que nos permiten
Fifth Grade/Quinto Grado Report Card Details Informe Información de la Tarjeta
Fifth Grade/Quinto Grado Report Card Details Informe Información de la Tarjeta Este trimestre se centra en las siguientes normas: ENGLISH/LANGUAGE ARTS/INGLÉS ARTES Estándares Estatales Comunes: Reading
5. Experimentos y Resultados
Experimentos y Resultados 52 5. Experimentos y Resultados Después de haber entrenado los modelos acústicos y los modelos del lenguaje para el reconocimiento de voz de niños, estas fuentes de conocimiento
CONCLUSIONES 5. CONCLUSIONES.
5. CONCLUSIONES. Entre los sistemas de referencia empleados para el cálculo de las fuerzas elásticas, para un elemento finito de dos nodos que utiliza la teoría de Euler- Bernoulli [11], basándose en las
Unidad V. Control Estadístico de la Calidad
UNIVERSIDAD NACIONAL DE INGENIERÍA UNI- NORTE - SEDE REGIONAL ESTELÍ Unidad V. Control Estadístico de la Calidad Objetivos Reconocer los principios estadísticos del control de calidad. Explicar la forma
DERIVADA DE LA FUNCIONES BÁSICAS TANGENTE, COTANGENTE, SECANTE Y COSECANTE
DERIVADA DE LA FUNCIONES BÁSICAS TANGENTE, COTANGENTE, SECANTE Y COSECANTE Sugerencias para quien imparte el curso: En esta sección de la propuesta didáctica se parte de plantear un problema de optimización
Unidad III: Curvas en R2 y ecuaciones paramétricas
Unidad III: Curvas en R2 y ecuaciones paramétricas 2.1 Ecuación paramétrica de la línea recta. La recta constituye una parte fundamental de las matemáticas. Existen numerosas formas de representar una
Creando e interpretando una tabla de frecuencias
Creando e interpretando una tabla de frecuencias Bitácora del Estudiante Realiza las siguientes actividades, mientras trabajas con el tutorial. 1. Cuáles son los tres niveles de destrezas del juego Matriz
6.4. APLICACIÓN DE REDES NEURONALES EN EL CÁLCULO DE LA TASA DE CONTORNEAMIENTOS Velocidad de retorno del rayo con distribución uniforme
Aplicación de redes neuronales en el cálculo de sobretensiones y tasa de contorneamientos 233 6.4. APLICACIÓN DE REDES NEURONALES EN EL CÁLCULO DE LA TASA DE CONTORNEAMIENTOS 6.4.1. Introducción Como ya
DEPARTAMENTO DE ORGANIZACIÓN INDUSTRIAL Y GESTIÓN DE EMPRESAS ESCUELA SUPERIOR DE INGENIEROS DE LA UNIVERSIDAD DE SEVILLA
6. CONCLUSIONES 6.1. Introducción En este trabajo se ha intentado realizar un estudio suficientemente exhaustivo, que pudiera recopilar los métodos y técnicas más relevantes en la gestión de proyectos
EVALUACIÓN POR ESTIMACIÓN DE LAS VIBRACIONES MECÁNICAS
EVALUACIÓN POR ESTIMACIÓN DE LAS VIBRACIONES MECÁNICAS DATOS DEL FABRICANTE Es la transposición de la nueva Directiva de Maquinas 2006/CE y en él se indica: 3.6.3 Manual de instrucciones 3.6.3.1 Vibraciones
INFORME TAREA N 4 CLUSTERING
Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Eléctrica EL4106 Inteligencia Computacional INFORME TAREA N 4 CLUSTERING Nombre Alumno : Profesor : Profesor Auxiliar
La eficiencia de los programas
La eficiencia de los programas Jordi Linares Pellicer EPSA-DSIC Índice General 1 Introducción... 2 2 El coste temporal y espacial de los programas... 2 2.1 El coste temporal medido en función de tiempos
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar
INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 29 de Abril de 2016
ANEXO ESTADÍSTICO 1 : COEFICIENTES DE VARIACIÓN Y ERROR ASOCIADO AL ESTIMADOR ENCUESTA NACIONAL DE EMPLEO (ENE) INSTITUTO NACIONAL DE ESTADÍSTICAS (INE) 9 de Abril de 016 1 Este anexo estadístico es una
UNIDAD 12.- Estadística. Tablas y gráficos (tema12 del libro)
UNIDAD 12.- Estadística. Tablas y gráficos (tema12 del libro) 1. ESTADÍSTICA: CLASES Y CONCEPTOS BÁSICOS En sus orígenes históricos, la Estadística estuvo ligada a cuestiones de Estado (recuentos, censos,
Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
El conocimiento del alfabeto y la escritura temprana
Joan nos habla sobre los El conocimiento del alfabeto y la escritura temprana Los niños pequeños y los niños en edad preescolar disfrutan al encontrar y hablar de las letras del alfabeto. Sienten una afición
Matemáticas UNIDAD 8 MÁS ACERCA DE LAS FRACCIONES SECTOR. Material de apoyo complementario para el docente. Preparado por: Irene Villarroel
SECTOR Material de apoyo complementario para el docente UNIDAD 8 MÁS ACERCA DE LAS FRACCIONES SEMESTRE: DURACIÓN: semanas Preparado por: Irene Villarroel Diseño Gráfico por: www.genesisgrafica.cl . Descripción
Tema 01: Algoritmia y diagramas de flujo. Estructuras de datos (Prof. Edgardo A. Franco)
Tema 1 Estructuras de datos (Prof. Edgardo A. Franco) Contenido Algoritmia Qué es un algoritmo? Métodos algorítmicos Diagrama de flujo Símbolos utilizados en los diagramas de flujo Reglas para la construcción
Tema 2. Regresión Lineal
Tema 2. Regresión Lineal 3.2.1. Definición Mientras que en el apartado anterior se desarrolló una forma de medir la relación existente entre dos variables; en éste, se trata de esta técnica que permite
Simulación de eventos discretos.
Simulación de eventos discretos http://humberto-r-alvarez-a.webs.com Qué es simulación? Consiste en diseñar y desarrollar un modelo computarizado de un sistema o proceso y conducir experimentalmente con
Aprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
LAS CONTRIBUCIONES DEL PREMIO NOBEL ANGUS DEATON
LAS CONTRIBUCIONES DEL PREMIO NOBEL ANGUS DEATON El profesor Angus Deaton recibió el premio Nobel en Economía por profundizar en el entendimiento del consumo y su relación con el bienestar social. La VII
MATEMÁTICA 6 BÁSICO MATERIAL DE APOYO PARA EL DOCENTE PATRONES Y ÁLGEBRA
MATEMÁTICA 6 BÁSICO PATRONES Y ÁLGEBRA Material elaborado por: Héctor Muñoz Adaptación: Equipo de Matemática Programa Mejor Escuela 1. BREVE PRESENTACIÓN DE LA UNIDAD El principal contenido de esta Unidad
Elementos del proyecto
Elementos del El sin importar la asignatura debe contener los puntos de la lista de cotejo, no se puede obtener una calificación de 100 si falta por lo menos uno de ellos. A continuación se muestra la
TEMA 5: RECONOCIMIENTO DE LOCUTORES Y DE VOZ.
TEM 5: RECONOCMENTO E LOCUTORES Y E VOZ. 5.. Reconocimiento de locutores.. Entrenamiento: se extraen parámetros de cada usuario del sistema.. uncionamiento: a partir de las señales, el sistema tomará la
GRAFICOS DE CONTROL DATOS TIPO VARIABLES
GRAFICOS DE CONTROL DATOS TIPO VARIABLES OBJETIVO DEL LABORATORIO El objetivo del presente laboratorio es que el estudiante conozca y que sea capaz de seleccionar y utilizar gráficos de control, para realizar
LENGUA. MATEMÁTICAS OBJETIVOS 1º DE PRIMARIA. OBJETIVOS Y CRITERIOS DE EVALUACIÓN CEIP SAN LUCAS 1
CEIP SAN LUCAS Villanueva del Pardillo CURSO 2013 / 2014 LENGUA. OBJETIVOS 1º DE PRIMARIA. 1. Identificar, nombrar y escribir de forma aislada en mayúsculas y minúsculas todas las letras que componen el
Z i
Medidas de Variabilidad y Posición. Jesús Eduardo Pulido Guatire, marzo 010 Cuando trabajamos el aspecto denominado Medidas de Tendencia Central se observó que tanto la media como la mediana y la moda
INSTITUCIÓN EDUCATIVA SAN VICENTE DE PAÚL ANÁLISIS RESULTADOS PRUEBAS SABER 3, 5 Y
INSTITUCIÓN EDUCATIVA SAN VICENTE DE PAÚL ANÁLISIS RESULTADOS PRUEBAS SABER 3, 5 Y 9 2015 RESULTADOS DE TERCER GRADO EN EL ÁREA DE LENGUAJE Comparación de porcentajes según niveles de desempeño por año
Técnicas de Minería de Datos
Técnicas de Minería de Datos Act. Humberto Ramos S. 1 Qué es Minería de datos? El desarrollo de dispositivos tecnológicos para acumular datos a bajo costo. Acumulación o registro de gran cantidad de datos.
SISTEMAS INFORMÁTICOS PROGRAMACION I - Contenidos Analíticos Ing. Alejandro Guzmán M. TEMA 2. Diseño de Algoritmos
TEMA 2 Diseño de Algoritmos 7 2. DISEÑO DE ALGORITMOS 2.1. Concepto de Algoritmo En matemáticas, ciencias de la computación y disciplinas relacionadas, un algoritmo (del griego y latín, dixit algorithmus
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
3. ESTRUCTURA DE UN CONVERSOR TEXTO-VOZ
Capítulo 3. Estructura de un conversor texto-voz Pagina 27 3. ESTRUCTURA DE UN CONVERSOR TEXTO-VOZ 3.1 INTRODUCCIÓN La conversión automática de texto a voz requiere la sucesión de una serie de procesos
Teoría de la decisión
1.- Un problema estadístico típico es reflejar la relación entre dos variables, a partir de una serie de Observaciones: Por ejemplo: * peso adulto altura / peso adulto k*altura * relación de la circunferencia
Capítulo 3. Polinomios
Capítulo 3 Polinomios 29 30 Polinomios de variable real 31 Polinomios de variable real 311 Evaluación de polinomios Para el cálculo eficiente de los valores de un polinomio se utiliza el algoritmo de Horner,
Conceptos básicos estadísticos
Conceptos básicos estadísticos Población Población, en estadística, también llamada universo o colectivo, es el conjunto de elementos de referencia sobre el que se realizan las observaciones. El concepto
CIENCIA Y TECNOLOGÍA DEL COLOR 2008 WORKSHOP ON COLORIMETRY AND COLOR IMAGING
CIENCIA Y TECNOLOGÍA DEL COLOR 2008 WORKSHOP ON COLORIMETRY AND COLOR IMAGING Título: Ciencia y Tecnología del Color 2008. Workshop on Colorimetry and Color Imaging Editores: Joaquín Campos Acosta y Rafael
Olas de calor en España desde 1975 Área de Climatología y Aplicaciones Operativas
Olas de calor en España desde 1975 Área de Climatología y Aplicaciones Operativas 1. Qué se entiende por ola de calor? Uno de los principales problemas al hablar de Olas de calor, es que no existe una
PROTOTIPO DE SISTEMA DE AUTOMATIZACIÓN DE ENCUESTAS TELEFÓNICAS. Universitat Politècnica de València {ahector,ecubel,asanchis}@iti.upv.
Zaragoza Del 8 al 10 de Noviembre de 2006 IV Jornadas en Tecnologia del Habla PROTOTIPO DE SISTEMA DE AUTOMATIZACIÓN DE ENCUESTAS TELEFÓNICAS Alejandro H. Toselli 1, Elsa Cubel Barea 1, Alberto Sanchis
Procesador de texto Apunte N 4
Procesador de texto Apunte N 4 Corrección de documentos ACLARACIÓN: Estos apuntes están diseñados para enseñar tanto MS Word como OOO Writer. Si es necesario se indicará de haber una diferencia de procedimientos
El Enfoque del Marco Lógico L a las ENDES. Introducción. Banco Mundial. Octubre, Programa MECOVI-Banco Mundial
El Enfoque del Marco Lógico L aplicado a las ENDES Introducción José R. Molinas Vega Banco Mundial Octubre, 2005 EL MARCO LÓGICO Una herramienta para fortalecer el Diseño, la Ejecución y la Evaluación
Apuntes y ejercicios de Estadística para 2º E.S.O
Apuntes y ejercicios de Estadística para 2º E.S.O 1 Introducción La Estadística es la ciencia que se encarga de recoger, organizar, describir e interpretar datos referidos a distintos fenómenos para, posteriormente,
Primaria Sexto Grado Matemáticas (con QuickTables)
Primaria Sexto Grado Matemáticas (con QuickTables) Este curso cubre los conceptos mostrados a continuación. El estudiante navega por trayectos de aprendizaje basados en su nivel de preparación. Usuarios
Análisis Numérico para Ingeniería. Clase Nro. 3
Análisis Numérico para Ingeniería Clase Nro. 3 Ecuaciones Diferenciales Ordinarias Introducción Problemas de Valores Iniciales Método de la Serie de Taylor Método de Euler Simple Método de Euler Modificado
Práctica 2. Nombre del curso: Teoría Moderna de la Detección y Estimación. Autores: Jerónimo Arenas García
Práctica 2 Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Jerónimo Arenas García Practica 2: Detección Radar Teoría Moderna de la Detección y la Estimación September 23, 2013 1
APUNTES DE CATEDRA: SISTEMAS DE NUMERACION - REPRESENTACION INTERNA DE NUMEROS Y CARACTERES
Cátedra de COMPUTACION Carreras: Licenciatura en Matemática Profesorado en Matemática Profesora: Mgr. María del Carmen Varaldo APUNTES DE CATEDRA: SISTEMAS DE NUMERACION - REPRESENTACION INTERNA DE NUMEROS
LABORATORIOS DE: DISPOSITIVOS DE ALMACENAMIENTO Y DE ENTRADA/SALIDA. MEMORIAS Y PERIFÉRICOS.
LABORATORIOS DE: DISPOSITIVOS DE ALMACENAMIENTO Y DE ENTRADA/SALIDA. MEMORIAS Y PERIFÉRICOS. PRÁCTICA #7 EL PUERTO PARALELO DE UNA COMPUTADORA OBJETIVO DE LA PRÁCTICA. Aprender la configuración del conector
Determinación del tamaño de muestra (para una sola muestra)
STATGRAPHICS Rev. 4/5/007 Determinación del tamaño de muestra (para una sola muestra) Este procedimiento determina un tamaño de muestra adecuado para la estimación o la prueba de hipótesis con respecto
Pruebas de Hipótesis. Diseño Estadístico y Herramientas para la Calidad. Pruebas de Hipótesis. Hipótesis
Diseño Estadístico y Herramientas para la Calidad Pruebas de Hipótesis Expositor: Dr. Juan José Flores Romero juanf@umich.mx http://lsc.fie.umich.mx/~juan M. en Calidad Total y Competitividad Pruebas de
METODOLOGÍA DE MUESTREO PARA REPORTE DE TENDENCIAS 4o BÁSICO Y 2o MEDIO SIMCE 2010
METODOLOGÍA DE MUESTREO PARA REPORTE DE TENDENCIAS 4o BÁSICO Y 2o MEDIO SIMCE 2010 SIMCE Unidad de Currículum y Evaluación Ministerio de Educación 2011 Índice 1. Antecedentes Generales 1 2. Metodología
Asignatura: Prospección Geológica Profesor Responsable: Dr. Humberto Ulacco Jefe de Trabajos Prácticos: Lic. Augusto Morosini
Construcción y análisis de Curvas de Frecuencia acumulada (con datos obtenidos en Fiji) Localización de la zona en estudio: Keiyasi, Southern Viti Levu, Fiji. Geología: (Fig. 1- Mapa del sector estudiado).
Lecciones de Pisa 2012 para América Latina
Lecciones de Pisa 2012 para América Latina Disponible en PDF En el 2012, ocho países de América Latina participaron en PISA, una prueba que evalúa lo que los jóvenes de 15 años saben y pueden hacer en
Tema 13: Distribuciones de probabilidad. Estadística
Tema 13: Distribuciones de probabilidad. Estadística 1. Variable aleatoria Una variable aleatoria es una función que asocia a cada elemento del espacio muestral, de un experimento aleatorio, un número
GLOSARIO ESTADÍSTICO. Fuente: Murray R. Spiegel, Estadística, McGraw Hill.
GLOSARIO ESTADÍSTICO Fuente: Murray R. Spiegel, Estadística, McGraw Hill. CONCEPTOS Y DEFINICIONES ESPECIALES Es el estudio científico de los métodos para recoger, organizar, resumir y analizar los datos
Al reemplazar la varianza muestral en la fórmula obtenemos otra expresión de la distribución chi-cuadrada:
ESTIMACIÓN POR INTERVALO PARA LA VARIANZA Ya estudiamos la estimación por intervalo para la media poblacional. Ahora extenderemos lo aprendido a la varianza. Cuándo creen que es importante estimar los
Tema 1 Magnitudes físicas y actividad científica
Tema 1 Magnitudes físicas y actividad científica Guía de Actividades Cada tema tendrá una serie de actividades que representan los distintos tipos de actividades que podrás encontrar en los exámenes. Estas
Ing. Eduardo Cruz Romero w w w. tics-tlapa. c o m
Ing. Eduardo Cruz Romero eduar14_cr@hotmail.com w w w. tics-tlapa. c o m La estadística es tan vieja como la historia registrada. En la antigüedad los egipcios hacían censos de las personas y de los bienes
Análisis de Fourier: efectos de un medio físico ideal en la transmisión de una señal digital
Análisis de Fourier: efectos de un medio físico ideal en la transmisión de una señal digital Pedro Manuel Díaz Varela Estudiante de Ingeniería en Computación Universidad Nacional del Sur Avda. Alem 153
ESTADÍSTICA DESCRIPTIVA
ESTADÍSTICA DESCRIPTIVA Medidas de tendencia central y de dispersión Giorgina Piani Zuleika Ferre 1. Tendencia Central Son un conjunto de medidas estadísticas que determinan un único valor que define el
1. La Distribución Normal
1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando
Estadística Descriptiva Métodos descriptivos visuales y medidas resumen
6 Estadística Descriptiva Métodos descriptivos visuales y medidas resumen Las técnicas de la estadística descriptiva pueden aplicarse tanto a datos muestrales como a datos poblacionales. Tipos de datos.
Tipos de gráficas y selección según los datos CIENCIA, TECNOLOGIA Y AMBIENTE
Tipos de gráficas y selección según los datos CIENCIA, TECNOLOGIA Y AMBIENTE Objetivos 2 Identificar los tipos de gráficas. Definir los conceptos tablas y cuadros Reconocer las partes de una gráfica. Construir
SISTEMAS DE DETECCIÓN DE INTRUSOS EN LA PLATAFORMA NETFPGA USANDO RECONOCIMIENTO DE EXPRESIONES REGULARES.
Título del trabajo de grado: SISTEMAS DE DETECCIÓN DE INTRUSOS EN LA PLATAFORMA NETFPGA USANDO RECONOCIMIENTO DE EXPRESIONES REGULARES. Estudiante de Maestría: Antonio Lobo Director del Proyecto: Prof.
PERFIL PROFESIONAL DE LA LICENCIATURA DE QUÍMICA (ANÁLISIS DE LA DEMANDA GESTIONADA EN EL COIE) coie VICERRECTORADO DE ESTUDIANTES
PERFIL PROFESIONAL DE LA LICENCIATURA DE QUÍMICA (ANÁLISIS DE LA DEMANDA GESTIONADA EN EL COIE) coie VICERRECTORADO DE ESTUDIANTES UNIVERSIDAD COMPLUTENSE DE MADRID LICENCIATURA QUÍMICA Los datos contenidos
4 CAJA DE POLINOMIOS C A P Í T U L O 4.1 MANUAL BÁSICO DE LA CAJA DE POLINOMIOS
C A P Í T U L O 4 CAJA DE POLINOMIOS Por: Jhon Fredy Saavedra Delgado Licenciatura en Matemáticas Universidad del Tolima jfredymatematico@gmail.com En este capítulo se mostrará el manejo básico del demo
Un Sistema de Diálogo para la Consulta de Correo Electrónico en Lenguaje Natural
Un Sistema de Diálogo para la Consulta de Correo Electrónico en Lenguaje Natural Leandro Rodríguez Liñares 1, Carmen García Mateo 2, Santiago Pardo Ríos 2, Víctor Darriba Bilbao 1 1 E.T.S.I. Informática
TÉCNICAS DIGITALES SISTEMAS NUMÉRICOS
Universidad Nacional de Quilmes Diplomatura en Ciencia y Tecnología TÉCNICAS DIGITALES Los sistemas numéricos. SISTEMAS NUMÉRICOS La necesidad de contar objetos llevó a distintas culturas a simbolizar
JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas
JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme
Tendencias recientes en el comportamiento del consumo de gas natural en Argentina -II GNC
Tendencias recientes en el comportamiento del consumo de gas natural en Argentina -II GNC S.Gil, L. Pomerantz y R. Ruggero Gerencia de Distribución ENARGAS Suipacha 636 4p (008) Buenos Aires e-mail: sgil@enargas.gov.ar
3. ANÁLISIS DE DATOS DE PRECIPITACIÓN.
3. ANÁLISIS DE DATOS DE PRECIPITACIÓN. Teniendo en cuenta que la mayoría de procesos estadísticos se comportan de forma totalmente aleatoria, es decir, un evento dado no está influenciado por los demás,
Actividad: Qué proporción del área terrestre de Puerto Rico está urbanizada?
Actividad: Qué proporción del área terrestre de Puerto Rico está urbanizada? Introducción En planificación el área urbanizada corresponde a la superficie de un terreno donde se han construido residencias
UNIVERSIDAD DE GRANADA PROCESAMIENTO DE VOZ
UNIVERSIDAD DE GRANADA PLAN DE ESTUDIOS: DIPLOMADO EN LOGOPEDIA PROCESAMIENTO DE VOZ Ángel de la Torre Vega Dpto. Teoría de la Señal, Telemática y Comunicaciones Procesamiento de Voz ATV Dpto. Teoría de
INTERVALOS Y SEMIRRECTAS.
el blog de mate de aida CSI: Inecuaciones pág 1 INTERVALOS Y SEMIRRECTAS La ordenación de números permite definir algunos conjuntos de números que tienen una representación geométrica en la recta real
Computación Aplicada. Universidad de Las Américas. Aula virtual de Computación Aplicada. Módulo de Excel 2013 LIBRO 10
Computación Aplicada Universidad de Las Américas Aula virtual de Computación Aplicada Módulo de Excel 2013 LIBRO 10 Contenido GRÁFICOS... 3 GRÁFICOS DESCRIPCION... 4 TIPOS DE GRÁFICOS... 6 GRÁFICOS DE
Modular Home. Febrero 2014 Palabras Clave. HP Group España Paseo de la Catellana 164, Madrid Tel:
Modular Home Febrero 2014 Palabras Clave HP Group España Paseo de la Catellana 164, Madrid 28046 Tel: 91 123 1114 www.hpseo.es Índice Más relevantes 3 Análisis 7 Tendencias 13 Más relevantes En estos momentos
Una persona que sabe mecanografía es 30% más productiva en el panorama académico y laboral
Una persona que sabe mecanografía es 30% más productiva en el panorama académico y laboral Edutype es un software auxiliar para el estudio y aprendizaje de la técnica mecanográfica, la cual consiste en
INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)
TEMA Nº 7 DISTRIBUCIONES CONTINUAS DE PROBABILIDAD OBJETIVOS DE APRENDIZAJE: Conocer las características de la distribución normal como distribución de probabilidad de una variable y la aproximación de
ENGLISH ADVENTURES ENGLISH DISCOVERIES EXPERT
ENGLISH ADVENTURES ENGLISH DISCOVERIES EXPERT LA UNIVERSIDAD DEL PACIFICO BRINDA A NUESTRA INSTITUCIÓN UN SERVICIO ESPECIALIZADO PARA COMPLEMENTAR LA METODOLOGIA DE ENSEÑANZA DEL IDIOMA INGLES. INGLÉS
TEMA 3. LUGARES GEOMÉTRICOS
TEMA 3. LUGARES GEOMÉTRICOS LA HERRAMIENTA LUGAR GEOMÉTRICO Para construir un lugar geométrico necesitaremos dos objetos: un punto que será el que describirá el lugar geométrico, y otro que será el punto
INSTITUCIÓN EDUCATIVA NUESTRA SEÑORA DEL PALMAR SEDE LICEO FEMENINO GUÍA DE ESTADÍSTICA GRADO DÉCIMO
GUÍA DE ESTADÍSTICA GRADO DÉCIMO MEDIDAS DE POSICIÓN Las medidas de posición son medidas que permiten dividir el conjunto de datos en partes porcentuales. Estas medidas se usan para describir la posición
Repaso General: La Mecánica
DEPARTAMENTO DE EDUCACIÓN ESCUELA ESPECIALIZADA EN CIENCIAS Y MATEMÁTICAS UNIVERSITY GARDENS SAN JUAN I FACULTAD DE CIENCIA Repaso General: La Mecánica I. Conceptos que se evaluarán en el examen: a. Mecánica
Semana03[1/17] Funciones. 16 de marzo de Funciones
Semana03[1/17] 16 de marzo de 2007 Introducción Semana03[2/17] Ya que conocemos el producto cartesiano A B entre dos conjuntos A y B, podemos definir entre ellos algún tipo de correspondencia. Es decir,