VARIABLES LATENTES PARA IDENTIFICAR EL INFARTO AGUDO DEL MIOCARDIO MEDIANTE ANÁLISIS DE COMPONENTES PRINCIPALES PROBABILÍSTICO
|
|
- María Victoria Caballero Segura
- hace 6 años
- Vistas:
Transcripción
1 Scientia et Technica Año XIII, No 34, Mayo de 007. Universidad Tecnológica de Pereira. ISSN VARIABLES LATENTES PARA IDENTIFICAR EL INFARTO AGUDO DEL MIOCARDIO MEDIANTE ANÁLISIS DE COMPONENTES PRINCIPALES PROBABILÍSTICO RESUMEN Este articulo presenta algunos resultado parciales de una reciente investigación [1] que comparó varias técnicas lineales y no lineales del análisis multivariado de datos con el objeto de seleccionar y extraer de manera efectiva un grupo de características basadas en señales electrocardiográficas orientadas a la identificación del infarto agudo de miocardio. Específicamente en este artículo se presentan los resultados obtenidos al aplicar el Análisis de Componentes Principales Probabilístico (Probabilistic Principal Component Analysis- PPCA) para generar un subespacio de características de menor dimensión que el original. Se presentan también los resultados obtenidos al evaluar la precisión de la clasificación de estados funcionales normales y patológicos del miocardio utilizando un clasificador bayesiano. Además, se estimó también su costo computacional. PALABRAS CLAVES: ICA, Extracción de características, Selección de características, Clasificador Bayesiano. ABSTRACT In this article some partial results from a recent research are presented [1].In the mentioned research a comparison between linear and non linear methods from multivariate analysis is made with the main purpose of selection and feature extraction from electrocardiography signals, this all oriented to identification of sharp infarction of the myocardium. JORGE HERNANDO RIVERA Ingeniero Electrónico, M.Sc Profesor Asistente Ingeniería Física Universidad Tecnológica de Pereira j.rivera@utp.edu.co JOSE SOTO MEJIA Físico, Ph.D. Profesor Titular Ingeniería Industrial Universidad Tecnológica de Pereira jomejia@utp.edu.co EDISON DUQUE Ingeniero Electrónico. Profesor Asistente Tecnología Electrónica Universidad Tecnológica de Pereira eduque@utp.edu.co Specifically this article summarizes the results from having applied the Multivariate method of analysis known as Probabilistic Principal Component Analysis (PPCA) to generate a subspace of characteristics of minor dimension than the original one. The precision of the classification of normal and pathological functional states of the myocardium using a Bayesian classifier was also computed. Its associated computational cost was also estimated. KEYWORDS: PPCA, feature extraction feature selection, bayesian classifier. 1. INTRODUCCIÓN Este articulo presenta algunos resultado parciales de la reciente investigación [1] que comparó varias técnicas lineales y no lineales del análisis multivariado de datos (Análisis de Componentes Principales (PCA), PCA Probabilístico, Análisis de Componentes Independientes (ICA), Kernel PCA y Kernel ICA) con el objeto de seleccionar y extraer de manera efectiva un grupo de características basadas en señales electrocardiográficas orientadas a la clasificación de estados funcionales normales y patológicos del infarto agudo de miocardio. El desempeño de cada técnica, en términos de la precisión de la clasificación, así como su costo computacional, fue probado experimentalmente en pruebas con bases de datos convencionales y con bases de datos correspondientes a características extraídas de señales biomédicas reales. En particular este artículo presenta los resultados obtenidos al aplicar el método de análisis en componentes principales probabilístico (PPCA) para Fecha de Recepción: 09 Febrero de 007 Fecha de Aceptación: 4 Abril de 007 generar un subespacio de características de menor dimensión que el original. Para el subespacio generado por éste método se presentan también los resultados obtenidos al evaluar la precisión de la clasificación de estados funcionales normales y patológicos utilizando un clasificador bayesiano. Además se estimó también su costo computacional. En la sección Justificación, se resalta la importancia de seleccionar y extraer de manera efectiva un grupo de características basadas en señales electrocardiográficas orientadas a la clasificación de estados funcionales normales y patológicos del infarto agudo de miocardio. La sección 3 Análisis de Componentes Principales Probabilístico presenta los fundamentos teóricos del método matemático utilizado en la selección efectiva de las características ECG para la identificación de infarto agudo del miocardio. La sección 4 Esquema de trabajo describe el marco experimental utilizado.
2 158 Scientia et Technica Año XIII, No 34, Mayo de 007. Universidad Tecnológica de Pereira En la sección 5 Resultados se presentan los resultados obtenidos al aplicar el método lineal de análisis en componentes principales probabilístico para generar un subespacio de características de menor dimensión que el original y la evaluación de la precisión de clasificación obtenida utilizando un clasificador bayesiano. La sección 6, se presenta las conclusiones parciales de la utilización del método utilizado y finalmente, la sección 6 Trabajos Futuros, hace una relación de las otras técnicas que fueron evaluadas y cuyos resultados se publicaran en detalle en otros artículos de esta revista.. JUSTIFICACIÓN El diagnóstico del Infarto Agudo del Miocardio se basa en la caracterización de las señales biomédicas del electrocardiógrafo. Los sistemas automatizados de identificación evalúan grupos conformados por un gran número de diferentes características-variables- extraídas del fenómeno de estudio. En la mayoría de estos procesos se contemplan amplios conjuntos de características que conllevan al empleo de grandes recursos computacionales, tanto en la etapa de caracterización como en las posteriores de almacenamiento y procesamiento de los datos. Uno de los principales problemas con los conjuntos de datos de alta dimensión es que no todas las variables medidas son relevantes en términos de representación []. Además, el aumento del número de características no esta relacionado en proporción directa con la buena capacidad de clasificación para una posterior detección [3]. Por lo anterior, es aconsejable reducir la dimensión de los datos-numero de variables-, manteniendo lo más que se pueda de la estructura original de los mismos. Así, un número limitado de características simplifica la representación tanto del patrón de caracterización como la de los parámetros de clasificación, resultando una extracción y análisis menos denso, permitiendo tener un clasificador más rápido y con menos carga computacional. El análisis multivariado de datos ofrece varios métodos estadísticos para reducir la dimensión del espacio de características [4] [5], de tal manera, que se descarten las variables que no ofrecen separabilidad, con el objetivo de hacer mas preciso y eficiente el sistema de detección, sumando a ello, la disminución en el tiempo de computo requerido para el entrenamiento del sistema clasificador. Sin embargo, una reducción exagerada en el número de características podría llevar a una perdida en el poder discriminante empobreciendo la precisión del sistema de reconocimiento. Con base en lo anterior, se puede intuir que la elección de un adecuado proceso para realizar la reducción de la dimensión, es una decisión que ubica en una balanza la disminución del número de variables de análisis contra la precisión de los resultados de clasificación. El proceso de reducción de dimensión puede entonces entenderse como la transformación del espacio de variables originales a un espacio de dimensión menor. Dichas transformaciones pueden ser combinaciones lineales o no lineales de las características originales. El entrenamiento de sistemas automáticos, usados en la detección de patologías a partir de señales biomédicas, implica obtener la efectiva selección de variables o combinaciones de las mismas que contengan la información suficiente contenida en la señal para su adecuada representación. Es así como en la reciente investigación ya citada [1], se compararon varias técnicas lineales y no lineales del análisis multivariado de datos (Análisis de Componentes Principales (PCA), Análisis de Componentes Principales Probabilístico (PPCA), Análisis de Componentes Independientes (ICA), Kernel PCA y Kernel ICA) con el objeto de seleccionar y extraer de manera efectiva un grupo de características basadas en señales electrocardiográficas orientadas a la clasificación de estados funcionales normales y patológicos del infarto agudo de miocardio. Además, el desempeño de cada una de las técnicas, en términos de la precisión de la clasificación, así como su costo computacional, fue probado experimentalmente en pruebas con bases de datos convencionales y con bases de datos correspondientes a características extraídas de señales biomédicas reales. 3. ANÁLISIS DE COMPONENTES PRINCIPALES PROBABILISTICO En general, el Análisis de Componentes Principales 1 (PCA) no contempla un modelo probabilístico para los datos observados, pero es posible construir un esquema de trabajo que tenga en cuenta la estimación de la densidad de probabilidad de los datos, este esquema se conoce como Análisis de Componentes Principales Probabilístico (PPCA - Probabilistic Principal Component Analysis). La idea central de los modelos de variables latentes es explicar un conjunto de variables observadas a partir de combinaciones lineales o no lineales de un conjunto menor de variables latentes o factores que son aleatorios. Los factores son construcciones subyacentes no medibles que se generan a partir de las variables observadas x1, x,..., xp. Si estas variables observadas presentan algún grado de correlación, es posible inferir que existe un 1 Para una presentación mas detallada del uso del Análisis de Componentes Principales no probabilístico (PCA) dentro del mismo marco experimental tratado en este articulo, véase en Scientia et Technica, año 13 Número 34 de Abril del 007, Rivera, J.; Soto M. José el articulo titulado Selección Efectiva de Características para Bioseñales Utilizando el Análisis de Componentes Principales.
3 Scientia et Technica Año XIII, No 34, Mayo de 007. Universidad Tecnológica de Pereira 159 conjunto menor de variables que explican el fenómeno con menos redundancia [6]. Así, un modelo de variables latentes trata de explicar un grupo de variables observadas (un vector p dimensional de características x) por medio de un grupo menor de variables no observadas (vector q dimensional de características latentes), con una relación de la forma: x=g(z;w)+ε (1) donde g (. ; ) es una función de las variables latentes Z con parámetros w, y ε es un proceso de ruido independiente de las variables Z. Al definir una distribución a priori sobre Z junto con la distribución de ε, la ecuación (1) induce una distribución correspondiente en el espacio de los datos, por tanto, los parámetros del modelo pueden ser determinados por medio de técnicas de máxima verosimilitud. En este sentido, si el mapeo g (z;w) es una función lineal de Z, el modelo es el conocido Análisis de Factores (Análisis Factorial), dado por: x=wz+µ + ε () Para el caso de la técnica multivariada que fue utilizada y cuyos resultados se presentan en este articulo, PPCA, la distribución de las perturbaciones no observadas ε se asume isotrópica (a diferencia del Análisis Factorial en el cual la matriz de varianzas delε es en general diagonal). por tanto, la ecuación () implica una distribución de probabilidad sobre el espacio de los datos X para unas variables latentes Z dadas, de la forma, p/ 1 p(x z) = ( πσ ) exp x-wz-µ σ (4) Si la probabilidad a priori sobre las variables latentes es gaussiana y definida por p( z) = ( π) exp z'z (5) se puede obtener la distribución marginal de X de forma que m/ 1 p(x) = p( xz)p( z)dz p/ 1/ 1 1 p(x) = ( π) C exp ( x-µ )' C ( x-µ ) donde la covarianza del modelo es (3) (6) C=σ I+ WW ' (7) Ahora, la distribución posterior de las variables latentes Z, dada las variables observadas X, puede ser calculada como, 1/ m/ = π σ M p( zx) ( ) exp { z M W( x-µ )}( σ M) { z M W'( x-µ )} (8) donde la matriz de covarianza posterior esta dada por, 1 1 σ M =σ ( σ I+ W'W ) (9) Cabe anotar que la matriz M es de tamaño m m mientras que C es de tamaño p p. Con base en este modelo se establece que la función de verosimilitud logarítmica para los datos observados dada por, Γ= n i= 1 { x } ln p( ) i n Γ= pln( π ) + ln + tr( ) n i = 1-1 { C C S } Donde, n 1 S = ( xi -µ)( xi -µ)' (10) (11) S representa la matriz de covarianza muestral de los datos observados. Por tanto, la función de verosimilitud logarítmica (10) se maximiza cuando las columnas de W cubren el subespacio principal de los datos. Para lo cual se considera derivar (10) con respecto a W, Γ = 1 1 n ( -1 C SC W C W) W (1) donde los únicos puntos estacionarios diferentes de cero de la ecuación (1) ocurren cuando: W= V U I (13) m( m σ ) donde Vm es (p m) y contiene m vectores propios de S, Um es una matriz diagonal (m m) con los respectivos valores propios y H es una matriz (m m) arbitraria ortogonal de rotación. Además, los puntos estacionarios correspondientes al máximo global de verosimilitud se presentan cuando Vm esta compuesto por los vectores propios principales de S, por tanto Um contiene los correspondientes λ, 1 λ,... λ valores propios de S m ordenados de forma decreciente según su magnitud. Por
4 160 Scientia et Technica Año XIII, No 34, Mayo de 007. Universidad Tecnológica de Pereira otra parte, todas las otras combinaciones de vectores propios representan puntos silla de la superficie de verosimilitud. Por tanto, de (13) se concluye que el modelo de variables latentes definido por () produce un mapeo del espacio latente en el subespacio principal de los datos observados. El estimador de máxima verosimilitud para σ cuando W corresponde con el máximo de verosimilitud (W =W ML ) esta dado por, 1 σ ML = λ p m = + j (14) j m 1 λ,... m λ +1 p Donde son los valores propios más pequeños de S. En tal sentido, para calcular los parámetros del modelo planteado y los correspondientes factores que permitan la reducción de dimensión se puede aplicar el Algoritmo 1 (abajo descrito). La transformación de reducción de dimensión PPCA para los datos observados puede lograrse de forma similar al caso de PCA convencional, sin embargo en el esquema de trabajo probabilístico, el modelo generador definido por () representa un mapeo del espacio de baja dimensión de variables latentes al espacio de los datos originales. Algoritmo 1 PPCA - Reducción de dimensión 1: Calcular la descomposición en vectores y valores propios de S. : Calcular el estimador de máxima verosimilitud σ ML a partir de (14). 3: Calcular la matriz de parámetros W ML (para máxima verosimilitud) por medio de (13). 4: Calcular la transformación de reducción de dimensión de los datos X empleando la media posterior z M W' ( x -µ) i 1 = ML i para calcular M 1 emplear (8) y (9). (15) Es así que en PPCA, el análogo probabilístico del proceso de reducción de dimensión de PCA puede ser: invertir la distribución condicional p (x z) usando la regla de Bayes, obteniéndose p (z x) según ecuación (8). En este caso, cada vector de datos Xi se representa en el espacio de variables latentes, no por un vector, sino por la distribución posterior Gaussiana dada en (8). Por tanto, un conveniente resumen de esta distribución y representación de Xi puede ser la media posterior dada por (15). 4. ESQUEMA DE TRABAJO En esta sección se presentarán el esquema de trabajo utilizado para evaluar el método lineal de análisis en componentes principales probabilístico para generar un subespacio de características de menor dimensión que el original. Para el subespacio generado por éste método se evaluó la precisión de la clasificación utilizando un clasificador bayesiano. Además la estimación de su costo computacional a efecto de compararlo, posteriormente, con los otros métodos de reducción de dimensionalidad mencionados en la sección anterior. 4.1 Base de Datos de Características ECG La base de datos ECG con registros electrocardiográficos de corazones normales y otros registros de corazones con patología de Infarto Agudo del Miocardio, hace parte del trabajo de investigación que viene realizando el grupo de control y procesamiento digital de señales GCPDS de la Universidad Nacional de Colombia sede Manizales. Las características que presenta esta base de datos corresponde al análisis de la base de datos ST-T europea. Esta base comienza a desarrollarse en 1985 a través del proyecto Concerted Action on Ambulatory Monitoring de la Comunidad Europea, cuyo objetivo era definir una base de datos de ECG en pacientes ambulatorios y en la cuál participaron expertos de doce países [7]. Una descripción técnica detallada de cómo fue formada esta base de datos se encuentra en [8]. Inicialmente, la señal electrocardiográfica fue preprocesada mediante técnicas como: Mediciones heurísticas, transformada wavelet (WT) con objeto de identificar las características que mejor discriminan el infarto agudo del miocardio, resultando en un total de 1009 características. La base de datos consta de 1800 observaciones, 900 correspondientes a características extraídas de electrocardiogramas para corazones normales, y 900 correspondientes a características extraídas de electrocardiogramas correspondientes a patología de isquemia o infarto agudo del miocardio, para un total de las 1009 características arriba mencionadas. 4. El Subespacio de Características Generado y Precisión de la Clasificación El subespacio de características que se evaluó fue generado utilizando inicialmente el primer componente principal, el siguiente subespacio fue generado con los dos primeros componentes, y así sucesivamente hasta obtener p subespacios de características. Para cada uno de estos subespacios se evaluó la precisión en la clasificación utilizando un clasificador bayesiano y se estimó también su costo computacional, determinado por el tiempo utilizado en la clasificación. La separabilidad lineal de las bases de datos fue probada utilizando el algoritmo de kozinec [9], el cual se basa en la búsqueda de un hiperplano que separe en un
5 Scientia et Technica Año XIII, No 34, Mayo de 007. Universidad Tecnológica de Pereira 161 subespacio de búsqueda dos clases de patrones. El encontrar dicho hiperplano implica la separabilidad lineal del subespacio. Para el entrenamiento y la validación del clasificador bayesiano, se utilizó un 50% del total de las 1800 observaciones con que contaba la base de datos de características de la señal electrocardiográfica y el 50% restante fue utilizado en la validación del clasificador. Para determinar la tendencia hacia la distribución gaussiana de las características de la base de datos se utilizó la prueba de hipótesis de Kolmogorov-Smirnov con un intervalo de confianza del 95%, además se realizó una prueba de kurtosis para determinar la gaussividad de las características. Adicionalmente se realizó un análisis de correlación para el espacio inicial de características, para determinar gráficamente el nivel de correlación entre estas. La base de datos posee dos clases: (i) ausencia o (ii) presencia de infarto agudo del miocardio. 5. RESULTADOS En la tabla (1) se muestra los resultados de precisión en el clasificador bayesiano así como el costo computacional obtenido para el espacio inicial de características (previo a la utilización de el método de análisis de componentes principales probabilístico).. Precisión en clasificación Costo computacional 50% 1569ms Tabla 1. Precisión y costo del conjunto inicial de características Se puede notar en la tabla 1 que para el conjunto inicial de características (sin aplicar el método de componentes principales) el clasificador pierde su poder discriminante (el cual es solo del 50%, es decir no tiene poder de predicción). En la figura () se muestra los resultados para la precisión en la clasificación, así como el costo computacional para todos los subespacios generados por el método de componentes principales probabilístico (subespacios formados por una componente principal probabilística hasta subespacios conformados por 1000 componentes principales probabilísticas). Con base en la prueba de hipótesis Kolmogorov-Smirnov se puede rechazar la hipótesis de gaussividad (condición matemática deseable en el método del análisis de componentes principales probabilístico) para cada una de las características que componen esta base de datos. El análisis de kurtosis muestra que en su mayoría las características que componen esta base de datos son super-gaussianas. Con base en la grafica (1) de la matriz de correlación se muestra que las variables (características iniciales) son altamente correlacionadas, además esta base de datos es linealmente separable, según los resultados obtenidos por el algoritmo de Kozinec (como fue ya arriba mencionado). Figura. Precisión y costo computacional para PCA En la figura anterior se puede observar que cuando el numero de componentes del subespacio aumenta, el clasificador pierde su poder discriminante además el costo computacional se incrementa exponencialmente. Para los subespacios generados la mejor clasificación se obtuvo con 69 componentes principales probabilísticos para una precisión en la clasificación del 88.78% con un costo computacional de 93 ms como se muestra en la tabla. Componentes Precisión Costo computacional % 93 ms Tabla. Mejor resultado en la clasificación Figura 1. Gráfica de la matriz de correlación
6 16 Scientia et Technica Año XIII, No 34, Mayo de 007. Universidad Tecnológica de Pereira 7. CONCLUSIONES Y TRABAJOS FUTUROS La transformación del espacio de la base de datos con características ECG con la técnica de Análisis en Componentes Principales Probabilístico permitió establecer que la mejor clasificación se obtuvo con 69 componentes principales probabilísticas para una precisión en la clasificación del 88.78% con un costo computacional de 93 ms. El esquema de trabajo presentado en la sección 4 de éste articulo fue también el utilizado para la evaluación de las técnicas, Análisis de Componentes Principales (PCA) y Análisis de Componentes Independientes (ICA), cuyos resultados fueron publicados en [10],[11]. Además, será posteriormente utilizado para evaluar el comportamiento de los Métodos no lineales: Kernel PCA y Kernel ICA dentro del mismo marco experimental. En próxima publicación se presentarán y compararan los mejores resultados obtenidos al emplear cada una de las técnicas multivariadas arriba mencionadas al analizar señales electrocardiográficas con miras a la clasificación de estados funcionales normales y patológicos del infarto agudo de miocardio. 8. BIBLIOGRAFÍA [1] Selección Efectiva de Características ECG Mediante Técnicas de Transformación no lineal: Identificación de Infarto Agudo del Miocardio. Jorge Hernando Rivera Piedrahita. Tesis de Magíster en Instrumentación Física. Facultad de Ciencias Básicas. Universidad Tecnológica de Pereira, 006. [6] D. Peña, Análisis de datos multivariantes, C. F. Madrid, Ed. Madrid, España. McGraw-Hill, 00. [7] Y.Yang. Electrocardiogram (ecg) analysis using wavelet decomposition. Technical Report ECE/BMED. [8] G. Castellanos. Identificación de estados funcionales en bioseñales: Voz, ecg, fonocardiografía. Technical report, Universidad Nacional de Colombia, Sede Manizales, Septiembre 005. [9] K. B.N. Recurrent algorithm separating convex hulls of two sets,, chapter Learning algorithms in Pattern Recognition, pages Moscow, Soviet Ratio, [10] Rivera, J.; Soto M. Jose. Selección Efectiva de Características para Bioseñales Utilizando el Análisis de Componentes Principales PCA-. Scientia et Technica, año 13 Número 34 de Abril del 007. [11] Rivera, J.; Soto M. Jose. Modelo de variables latentes para la identificación del infarto agudo del miocardio -Análisis de Componentes Independientes (ICA). Scientia et Technica, año 13 Número 34 de Abril del 007. [] D. L. Donoho. High-dimensional data analysis: The curses and blessings of dimensionality. In Mathematical Challenges of the 1st Century, 000. URL: /AMS000/Curses.pdf. [3] L. Yu and H. Liu. Efficient feature selection via analysis of relevance and redundancy. Journal of Machine Learning Research, 5:105 14, 004. [4] M. A. Carreira-Perpiñan. Continuous latent variable models for dimensionality reduction and sequential data reconstruction. PhD thesis, University of Sheffield, UK, 001. URL: [5] R. Fried and V. Didelez. Latent variable analysis and partial correlation graphs for multivariate time series. Statistics & Probability Letters, 73:87 96, 005.
MODELO DE VARIABLES LATENTES PARA LA IDENTIFICACIÓN DEL INFARTO AGUDO DEL MIOCARDIO ANALISIS DE COMPONENTES INDEPENDIENTES
Scientia et Technica Año XIII, No 3, Mayo de 2007. Universidad Tecnológica de Pereira. ISSN 0122-1701 163 MODELO DE VARIABLES LATENTES PARA LA IDENTIFICACIÓN DEL INFARTO AGUDO DEL MIOCARDIO ANALISIS DE
Análisis de Datos. Clasificación Bayesiana para distribuciones normales. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Clasificación Bayesiana para distribuciones normales Profesor: Dr. Wilfrido Gómez Flores 1 Funciones discriminantes Una forma útil de representar clasificadores de patrones es a través
Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification
Carlos Cuevas-Covarrubias (Mexico): Mutual Principal Components, reduction of dimensionality in statistical classification Mutual Principal Components, reduction of dimensionality in statistical classification
Análisis multivariante II
Análisis multivariante II Tema 1: Introducción Pedro Galeano Departamento de Estadística Universidad Carlos III de Madrid pedro.galeano@uc3m.es Curso 2016/2017 Grado en Estadística y Empresa Pedro Galeano
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN LICENCIATURAEN INFORMÁTICA
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN LICENCIATURAEN INFORMÁTICA PROGRAMA DE LA ASIGNATURA DE: Seminario de Técnicas estadísticas avanzadas para la toma de
Sistemas de Reconocimiento de Patrones
Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.
Tema 9. Análisis factorial discriminante
Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. 9.1. Introducción. Tema 9. Análisis factorial discriminante Supongamos que están denidos I grupos,
ordenan de modo tal que unas pocas (las primeras) retengan la mayor cantidad de variación presente en el conjunto original de características [3].
Scientia et Technica Año XIII, No 35, Agosto de 2007. Universidad Tecnológica de Pereira.. ISSN 0122-1701 139 SELECCIÓN DE CARACTERÍSTICAS ORIENTADA A SISTEMAS DE RECONOCIMIENTO DE GRANOS MADUROS DE CAFÉ.
Análisis de Datos. Análisis lineal discriminante. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Análisis lineal discriminante Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Para reducir el error de clasificación algunas veces es necesario identificar el subconjunto de características
Scientia Et Technica ISSN: Universidad Tecnológica de Pereira Colombia
Scientia Et Technica ISSN: 0122-1701 scientia@utpeduco Colombia VALENCIA ANGULO, EDGAR ALIRIO; MESA, FERNANDO PROPIEDADES DE LA MATRIZ Pn EN UNA CADENA DE MARKOV Scientia Et Technica, vol XIV, núm 39,
ANALISIS DISCRIMINANTE, ESTADISTICA GERENCIAL
UNIVERSIDAD DE PUERTO RICO Recinto de Río Piedras Facultad de Administración de Empresas Instituto de Estadística ANALISIS DISCRIMINANTE, HERRAMIENTA EN ESTADISTICA GERENCIAL José C. Vega Vilca, PhD Presentación
Clasificación estadística de patrones
Clasificación estadística de patrones Clasificador gaussiano César Martínez cmartinez _at_ fich.unl.edu.ar Tópicos Selectos en Aprendizaje Maquinal Doctorado en Ingeniería, FICH-UNL 19 de setiembre de
Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Reconocimiento de patrones (RP): clasificar objetos en un número de categorías o clases.
ANALISIS FACTORIAL. Jorge Galbiati R.
ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores
Análisis de Datos. Introducción al aprendizaje supervisado. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Introducción al aprendizaje supervisado Profesor: Dr. Wilfrido Gómez Flores 1 Conceptos básicos Desde la antigüedad, el problema de buscar patrones en datos es fundamental en diversas
EVALUACIÓN DEL MÉTODO DE MURPHY PARA LA INTERPRETACIÓN DE SEÑALES EN LA CARTA T 2 MULTIVARIADA
EVALUACIÓN DEL MÉTODO DE MURPHY PARA LA INTERPRETACIÓN DE SEÑALES EN LA CARTA T 2 MULTIVARIADA Hector Fabian Lopez Casas 1 hectorfl86@hotmail.com 1 Estudiante de Matematicas Con Enfasis en Estadistica,
UNIVERSIDAD TECNOLÓGICA DE PEREIRA FACULTAD DE INGENIERÍAS MAESTRÍA EN INGENIERÍA DE SISTEMAS Y COMPUTACIÓN APRENDIZAJE DE MÁQUINA
UNIVERSIDAD TECNOLÓGICA DE PEREIRA FACULTAD DE INGENIERÍAS MAESTRÍA EN INGENIERÍA DE SISTEMAS Y COMPUTACIÓN APRENDIZAJE DE MÁQUINA OBJETIVO GENERAL El objetivo general del Aprendizaje de Máquina (ML por
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda.
ESTIMACIÓN Estas transparencias contienen material adaptado del curso de PATTERN RECOGNITION AND MACHINE LEARNING de Heikki Huttunen y del libro Duda. APRENDIZAJE AUTOMÁTICO, ESTIMACIÓN Y DETECCIÓN Introducción
El reconocimiento de patrones desde un punto de vista estadístico es la selección o extracción de características.
ANÁLISIS DE COMPONENTES PRINCIPALES El reconocimiento de patrones desde un punto de vista estadístico es la selección o extracción de características Esta selección se refiere a procesos donde el espacio
Asignatura: Horas: Total (horas): Obligatoria X Teóricas 4.5 Semana 4.5 Optativa Prácticas Semanas 72.0
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA PROGRAMA DE ESTUDIO Aprobado por el Consejo Técnico de la Facultad de Ingeniería en su sesión ordinaria del 19 de noviembre de 2008 INFERENCIA
Teórica básica. Incluimos. - Temas
Teórica básica Incluimos - Temas 1 - Tema 1: Fenómenos aleatorios. Conceptos de probabilidad. Propiedades. Independencia de sucesos. Teorema de Bayes. - Tema 2: Variables aleatorias. Variables discretas.
Análisis de Datos en Física de Partículas
Análisis de Datos en Física de Partículas Sección de Posgrado Facultad de Ciencias Universidad Nacional de Ingeniería C. Javier Solano jsolano@uni.edu.pe http://compinformatidf.wordpress.com/ Página del
PRÁCTICA I. Ejercicios Teóricos
PRÁCTICA I TEORÍA DE LA DECISIÓN BAYESIANA Ejercicios Teóricos Ejercicio. En el caso de dos categorías, en la regla de decisión de Bayes el error condicional está dado por la ecuación (7). Incluso si las
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría
Estadística Computacional
Estadística Computacional Profesor : Héctor Allende O. Departamento de Informática Universidad Técnica Federico Santa María Estructura del Curso 1.- Introducción. 2.- Análisis Exploratorio de Datos. 3.-
Análisis de imágenes digitales
Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en color INTRODUCCIÓN La segmentación de imágenes a color se puede realizar mediante técnicas de clasificación supervisada.
Universidad Nacional Autónoma de México Laboratorio de Cómputo Científico, F. C.
: Un Universidad Nacional Autónoma de México Laboratorio de Cómputo Científico, F. C. : Un presenta México D.F., a 23 de Septiembre de 2010. Historia : Un La estimación de mineral recobrable es muy importante
ANÁLISIS DE LA SEPARABILIDAD LINEAL DE UNA BASE DE DATOS Data base linear separability analysis
Scientia et Technica Año XIII, No 37, Diciembre de 2007. Universidad Tecnológica de Pereira. ISSN 022-70 527 ANÁLISIS DE LA SEPARABILIDAD LINEAL DE UNA BASE DE DATOS Data base linear separability analysis
Instituto: ICSA Modalidad: Presencial. Programa: Maestría en Economía Carácter: Obligatorio. Teoría: 13 Hrs.
CARTA DESCRIPTIVA DE PROBABILIDAD Y ESTADÍSTICA I. Identificadores de la asignatura Instituto: ICSA Modalidad: Presencial Departamento: Ciencias Sociales Materia: Probabilidad y estadística Créditos: 8
TEMA 1: INTRODUCCIÓN N AL PROCESADO Y ANÁLISIS DE DATOS
Procesado y Análisis de Datos Ambientales. Curso 2009-2010. José D. Martín, Emilio Soria, Antonio J. Serrano TEMA 1: INTRODUCCIÓN N AL PROCESADO Y ANÁLISIS DE DATOS ÍNDICE Introducción. Selección de variables.
ºBONDAD DE LOS ESTIMADORES JACKNIFE PARA DISTINTOS TIPOS DE POBLACIÓN
ºBONDAD DE LOS ESTIMADORES JACKNIFE PARA DISTINTOS TIPOS DE POBLACIÓN Raquel Plúa Morán 1, Gaudencio Zurita 2 1 Ingeniera en Estadística Informática 2003 2 Director de Tesis, Master en Ciencias Matemáticas,
Asignaturas Temas Asignaturas Temas
1 Datos de la Asignatura Nombre de la asignatura: Carrera: Clave de la asignatura: Reconocimiento de Patrones Ingeniería en Sistemas CIE-0701 Horas teoría / práctica / Créditos: 2 2 6 2 Historia del Programa
Aprendizaje Automático
Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática
Procesamiento de voz - Reconocimiento de voz II
Procesamiento de voz - Reconocimiento de voz II Marc S. Reßl Roxana Saint-Nom 2009 Ingeniería Electrónica Instituto Tecnológico de Buenos Aires Reconocimiento de voz Las técnicas que vimos hasta ahora
TEMA 1 INTRODUCCIÓN AL MODELADO Y LA SIMULACIÓN
TEMA 1 INTRODUCCIÓN AL MODELADO Y LA SIMULACIÓN 1.1. Introducción 1.2. Conceptos fundamentales 1.3. Modelado y simulación de tiempo discreto 1.4. Modelado y simulación de eventos discretos 1.5. Pasos en
Técnicas de minería de datos aplicadas a la valoración de ambientes creativos
Técnicas de minería de datos aplicadas a la valoración de Germán Augusto Osorio Z. 1 Luis Gonzalo Sánchez G. 2 Néstor Darío Duque M. 3 Resumen Recibido: 10 de abril de 2009 Aceptado: 9 de junio de 2009
Probabilidad y Estadística
Programa de la Asignatura: Código: 23 Probabilidad y Estadística Carrera: Ingeniería en Computación Plan: 2013 Carácter: Obligatoria Unidad Académica: Secretaría Académica Curso: Tercer año Primer cuatrimestre
Índice general. Prefacio...5
Índice general Prefacio...5 Capítulo 1 Introducción...13 1.1 Introducción...13 1.2 Los datos...19 1.3 Etapas en los procesos de big data...20 1.4 Minería de datos...21 1.5 Estructura de un proyecto de
Curso de nivelación Estadística y Matemática
Modelo de Curso de nivelación Estadística y Matemática Pruebas de hipótesis, y Modelos ARIMA Programa Técnico en Riesgo, 2017 Agenda Modelo de 1 2 Asociación Medidas de asociación para variables intervalo
Tema 4.2: FUNCIONES DISCRIMINANTES LINEALES y SV
ema 4.: FUNCIONES DISCRIMINANES LINEALES y SV Some Figures in these slides were taken from Pattern Classification (nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 000 with the permission
MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS.
Revista de Epistemología y Ciencias Humanas 37 MÉTODO DE CLASIFICACIÓN SUPERVISADA SUPPORT VECTOR MACHINE: UNA APLICACIÓN A LA CLASIFICACIÓN AUTOMÁTICA DE TEXTOS. Supervised Classification Method Support
Scientia Et Technica ISSN: Universidad Tecnológica de Pereira Colombia
Scientia Et Technica ISSN: 0122-1701 scientia@utp.edu.co Universidad Tecnológica de Pereira Colombia Alirio Valencia, Edgar; Poveda, Yuri Alexander; Escudero Salcedo, Carlos Arturo Desigualdad de Chebyshev
Resumen. El análisis de componentes principales (PCA) es una técnica multivariada utilizada
Comparación de las aproximaciones χ 2 para la prueba de igualdad de los valores propios en el PCA Eduard Alexander Gañán Cárdenas a, Juan Carlos Correa Morales b Email: eaganan@unal.edu.co a. Estudiante
Econometría II Grado en finanzas y contabilidad
Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es
RECONOCIMIENTO DE PAUTAS
RECONOCIMIENTO DE PAUTAS ANÁLISIS DISCRIMINANTE (Discriminant analysis) Reconocimiento de pautas supervisado si se cuenta con objetos cuya pertenencia a un grupo es conocida métodos: análisis de discriminantes
Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47
Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor
Eigenvalores y eigenvectores
Eigenvalores y eigenvectores Los dos problemas principales del álgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz actúa sobre
ASIGNATURA: MÉTODOS ESTADÍSTICOS DE LA INGENIERÍA
ASIGNATURA: MÉTODOS ESTADÍSTICOS DE LA INGENIERÍA PLAN NUEVO (1. er cuatrimestre) (Código: 523064) 1. EQUIPO DOCENTE Dr. D. Vicente Novo Sanjurjo. Profesor Titular Dr. D. Bienvenido Jiménez Martín. Profesor
Repaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Tópicos Selectos en Aprendizaje Maquinal. Algoritmos para Reconocimiento de Patrones
Tópicos Selectos en Aprendizaje Maquinal Guía de Trabajos Prácticos N 1 Algoritmos para Reconocimiento de Patrones 18 de septiembre de 2014 1. Objetivos Introducir conceptos básicos de aprendizaje automático.
Random Subspace Method. Índice. 1. Random Subspace Method. 1. Introducción. 2. Objetivo. 3. Implementación. 4. Evaluación. 5.
The Random Subspace Method for Constructing Decision Forests (IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 8, AUGUST 1998) Iñigo Barandiaran 1 Índice 1. Random Subspace
Distribuciones multivariadas
Distribuciones multivariadas Si X 1,X 2,...,X p son variables aleatorias discretas, definiremos la función de probabilidad conjunta de X como p(x) =p(x 1,x 2,...,x k )=P (X 1 = x 1,X 2 = x 2,...,X p =
METODOS ESTADÍSTICOS
METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.
Mantenimiento Eléctrico
Universidad Tecnológica de Pereira - 1/27 Mantenimiento Eléctrico Intervalos estadísticos, pruebas de hipótesis Mauricio Holguín Londoño Programa de Ingeniería Eléctrica 2016 Universidad Tecnológica de
Análisis de Datos. Regresión logística. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Regresión logística Profesor: Dr. Wilfrido Gómez Flores 1 Regresión logística Supóngase que se tiene una variable binaria de salida Y, y se desea modelar la probabilidad condicional P(Y=1
El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS
Scientia et Technica Año XIV No 39 septiembre de 2008 Universidad Tenològica de Pereira ISSN 0122-1701 394 El CONCEPTO DE LA ESPERANZA CONDICIONAL EN LAS MARTINGALAS The concept of the conditional expectation
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA PROGRAMA DE ESTUDIO
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA PROGRAMA DE ESTUDIO ANÁLISIS DE SEÑALES ALEATORIAS 1560 5 06 Asignatura Clave Semestre Créditos Ingeniería Eléctrica Ingeniería en Telecomunicaciones
Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA. Ricardo Aler Mur
Aprendizaje Automático para el Análisis de Datos GRADO EN ESTADÍSTICA Y EMPRESA Ricardo Aler Mur Aprendizaje de distancias Kilian Q. Weinberger, Lawrence K. Saul: Distance Metric Learning for Large Margin
Análisis de Datos. Combinación de clasificadores. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Combinación de clasificadores Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Diversos algoritmos de clasificación están limitados a resolver problemas binarios, es decir, con dos
Planificaciones Probabilidad y Estadística B. Docente responsable: GRYNBERG SEBASTIAN PABLO. 1 de 6
Planificaciones 6109 - Probabilidad y Estadística B Docente responsable: GRYNBERG SEBASTIAN PABLO 1 de 6 OBJETIVOS 1) Que los estudiantes aprendan los elementos básicos del método probabilístico y de la
Planificaciones Probabilidad y Estadística B. Docente responsable: GRYNBERG SEBASTIAN PABLO. 1 de 6
Planificaciones 8104 - Probabilidad y Estadística B Docente responsable: GRYNBERG SEBASTIAN PABLO 1 de 6 OBJETIVOS 1) Que los estudiantes aprendan los elementos básicos del método probabilístico y de la
Nombre de la asignatura : Estadística Aplicada. Carrera : Ingeniería en Sistemas Computacionales. Clave de la asignatura : SCB-9308
. D A T O S D E L A A S I G N A T U R A Nombre de la asignatura : Estadística Aplicada Carrera : Ingeniería en Sistemas Computacionales Clave de la asignatura : SCB-908 Horas teoría-horas práctica-créditos
Fecha de elaboración: Agosto de 2004 Fecha de última actualización: Julio de 2010
PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Ciencias Computacionales Integral Profesional Programa elaborado por: Probabilidad Horas teóricas: 2 Horas prácticas: 2 Total
Carrera: IAM Participantes Representante de las academias de ingeniería en Industrias Alimentarias de los Institutos Tecnológicos.
.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Estadística Aplicada Ingeniería en Industrias Alimentarias IAM-0 --8.- HISTORIA
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN PLAN DE ESTUDIOS DE LA LICENCIATURA EN QUÍMICA INDUSTRIAL
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN PLAN DE ESTUDIOS DE LA LICENCIATURA EN QUÍMICA INDUSTRIAL PROGRAMA DE LA ASIGNATURA DE: IDENTIFICACIÓN DE LA ASIGNATURA
IAAE - Inteligencia Artificial Aplicada a la Ingeniería
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2016 295 - EEBE - Escuela de Ingeniería de Barcelona Este 723 - CS - Departamento de Ciencias de la Computación GRADO EN INGENIERÍA
IDENTIFICACIÓN DE SISTEMAS MÉTODOS POR SUB-ESPACIOS
IDENTIFICACIÓN DE SISTEMAS MÉTODOS POR SUB-ESPACIOS Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Introduccion La teoría de sistemas
INDICE Capitulo uno Introducción y estadísticas descriptiva Capitulo dos Conceptos en probabilidad Capitulo tres
INDICE Capitulo uno Introducción y estadísticas descriptiva 1.1. Introducción 1.2. descripción grafica de los datos 3 1.3. medidas numéricas descriptivas 11 Ejercicios 22 Apéndice: sumatorias y otras notaciones
CURSO: ECONOMETRÍA Y ANÁLISIS DE POLÍTICAS FISCALES INSTRUCTOR: HORACIO CATALÁN ALONSO. Especificación de los modelos VAR
CURSO: ECONOMETRÍA Y ANÁLISIS DE POLÍTICAS FISCALES INSTRUCTOR: HORACIO CATALÁN ALONSO Especificación de los modelos VAR Modelos VAR es una extensión de un AR(p) Permiten un mejor entendimiento de la
GEOESTADÍSTICA APLICADA
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO GEOESTADÍSTICA APLICADA Tema: Análisis Exploratorio de Datos Instructores: Dr. Martín A. Díaz Viera (mdiazv@imp.mx) Dr. Ricardo Casar González (rcasar@imp.mx) 2009
Segmentación de una cartera de clientes usando aprendizaje de máquina
Inicio Segmentación de una cartera de clientes usando aprendizaje de máquina Universidad San Ignacio de Loyola I encuentro interdisciplinario de investigación desarrollo y tecnología USIL 2014 Inicio Inicio
Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos
XXVI Simposio Internacional de Estadística 2016 Sincelejo, Sucre, Colombia, 8 al 12 de Agosto de 2016 Diseños D-óptimos bayesianos para modelos lineales heteroscedásticos Catalina Patiño Bustamante 1,a,
FUNDAMENTOS Y APLICACIONES DE APRENDIZAJE AUTOMÁTICO
FUNDAMENTOS Y APLICACIONES DE APRENDIZAJE AUTOMÁTICO Año 2016 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012
GUIA DOCENTE ESTADÍSTICA II
GUIA DOCENTE 2016-17 ESTADÍSTICA II Mayo 2016 DATOS GENERALES Nombre del curso: Código: ESTADÍSTICA II 801101, ADE 801916, MKCD Curso: 2016-17 Titulación: Grado en Administración y Dirección de Empresas
UN TAMAÑO DE MUESTRA PRELIMINAR EN LA ESTIMACION DE LA MEDIA, EN POBLACIONES CON DISTRIBUCIONES UNIFORMES Y TRIANGULARES
Revista Colombiana de Estadística Volumen 24 (2001) N o 1, páginas 27 a 32 UN TAMAÑO DE MUESTRA PRELIMINAR EN LA ESTIMACION DE LA MEDIA, EN POBLACIONES CON DISTRIBUCIONES UNIFORMES Y TRIANGULARES CARLOS
PROGRAMA DETALLADO VIGENCIA TURNO UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA ARMADA 2009 DIURNO INGENIERÌA EN SISTEMAS ASIGNATURA
PROGRAMA DETALLADO VIGENCIA TURNO UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA FUERZA ARMADA 2009 DIURNO INGENIERÌA EN SISTEMAS SEMESTRE ASIGNATURA 8vo TEORÍA DE DECISIONES CÓDIGO HORAS MAT-31314
IAAE - Inteligencia Artificial Aplicada a la Ingeniería
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2017 295 - EEBE - Escuela de Ingeniería de Barcelona Este 723 - CS - Departamento de Ciencias de la Computación GRADO EN INGENIERÍA
ANX-PR/CL/ GUÍA DE APRENDIZAJE
PROCESO DE COORDINACIÓN DE LAS ENSEÑANZAS PR/CL/001 ASIGNATURA 55000643 - PLAN DE ESTUDIOS 05IR - CURSO ACADÉMICO Y SEMESTRE 2018/19 - Primer semestre Índice Guía de Aprendizaje 1. Datos descriptivos...1
Vectores aleatorios (distribuciones multivariantes)
Vectores aleatorios (distribuciones multivariantes) Tema 9. Distribución conjunta de un vector aleatorio. Distribuciones marginales y condicionadas Ignacio Cascos Depto. Estadística, Universidad Carlos
Ejercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO. Facultad de Ciencias. Plan de estudios de la Licenciatura en Actuaría. Modelos Lineales
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO Facultad de Ciencias Plan de estudios de la Licenciatura en Actuaría Modelos Lineales Clave 0861 Modalidad Semestre 7 u 8 Créditos 10 Área Campo de conocimiento
CLAVE TALLER REQUISITOS HORA/SEMANA CREDITOS MA-6 SPSS 80% ASISTENCIA 4 6 MARCO REFERENCIAL
1 UNIVERSIDAD AUTONOMA DE YUCATAN FACULTAD DE CONTADURIA Y ADMINISTRACION LICENCIADO EN MERCADOTECNIA Y NEGOCIOS INTERNACIONALES PROGRAMAS GENERALES AREA DE ANALISIS CUANTITATIVO NIVEL DOS: BASICO PROFESIONALIZANTE
Reducción de la Dimensionalidad en Análisis de Datos. Análisis de Componentes Principales.
Reducción de la Dimensionalidad en Análisis de. Análisis de Componentes Principales. A. Jiménez, A. Murillo, E. Piza, M. Villalobos, J. Trejos. April 27, 2010 Contenido 1 Objetivo. 2 Solución. 3. Calidad
ANX-PR/CL/ GUÍA DE APRENDIZAJE
PROCESO DE COORDINACIÓN DE LAS ENSEÑANZAS PR/CL/001 ASIGNATURA 55001012 - PLAN DE ESTUDIOS 05IQ - CURSO ACADÉMICO Y SEMESTRE 2018/19 - Primer semestre Índice Guía de Aprendizaje 1. Datos descriptivos...1
CM0244. Suficientable
IDENTIFICACIÓN NOMBRE ESCUELA ESCUELA DE CIENCIAS NOMBRE DEPARTAMENTO Ciencias Matemáticas ÁREA DE CONOCIMIENTO MATEMATICAS, ESTADISTICA Y AFINES NOMBRE ASIGNATURA EN ESPAÑOL ESTADÍSTICA GENERAL NOMBRE
Repaso de Estadística
Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio
IAAE - Inteligencia Artificial Aplicada a la Ingeniería
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2017 295 - EEBE - Escuela de Ingeniería de Barcelona Este 723 - CS - Departamento de Ciencias de la Computación GRADO EN INGENIERÍA
IAAE - Inteligencia Artificial Aplicada a la Ingeniería
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2017 295 - EEBE - Escuela de Ingeniería de Barcelona Este 723 - CS - Departamento de Ciencias de la Computación GRADO EN INGENIERÍA
UNIVERSIDAD AUTÓNOMA DE ZACATECAS PLAN ANALÍTICO
ÁREA ACADÉMICA UNIVERSIDAD AUTÓNOMA DE ZACATECAS PLAN ANALÍTICO CIENCIAS BÁSICAS UNIDAD ACADÉMICA MATEMÁTICAS PROGRAMA ACADÉMICO LICENCIATURA EN MATEMÁTICAS CICLO ESCOLAR UNIDAD DIDÁCTICA ESTADÍSTICA I
DISCRIMINACIÓN CUADRÁTICA MEDIANTE MATRICES DE COVARIANZAS
PESQUIMAT, Revista de la F.C.M. de la Universidad Nacional Mayor de San Marcos Vol. I - N'2 Pgs. 111-116 Lima - Perú Dic. 1998 DISCRIMINACIÓN CUADRÁTICA MEDIANTE MATRICES DE COVARIANZAS? Doris Gómez Ticerán
Teorema Central del Límite (1)
Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
ÍNDICE Modelos de caja gris Calibración de modelos Estimación de parámetros Análisis de la estimación Regresión no lineal 1. Modelos de caja gris Son modelos de un sistema (o proceso), donde: Desarrollados
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN PLAN DE ESTUDIOS DE LA LICENCIATURA EN INGENIERÍA QUÍMICA
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN PLAN DE ESTUDIOS DE LA LICENCIATURA EN INGENIERÍA QUÍMICA PROGRAMA DE LA ASIGNATURA DE: PROBABILIDAD Y ESTADÍSTICA IDENTIFICACIÓN