Sesión 8: Campos de Markov
|
|
|
- Juan José Herrero Duarte
- hace 8 años
- Vistas:
Transcripción
1 Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 8: Campos de Markov la verdadera lógica de este mundo es el cálculo de probabilidades, que toma en cuanta la magnitud de las probabilidades, las cuales deben estar en la mente de todo hombre razonable James C. Maxwell, 1850
2 Campos de Markov Introducción Modelo de Ising Representación Tipos de Modelos Redes de Markov Vecindades Algoritmos ICM, Metrópolis, Recocido Simulado Aplicaciones Filtrado y recuperación de imágenes L.E. Sucar: PGM - CAM 2
3 Campos de Markov (CAM) Ciertos procesos, como un campo magnético o una imagen, se pueden ver como una serie de estados en el espacio o una malla de estados. A este tipo de modelos se les conoce como Campos de Markov. Estos procesos se pueden considerar como una extensión de las cadenas de Markov en los cuales el índice de tiempo se substituye por un índice espacial L.E. Sucar: PGM - CAM 3
4 Modelo de Ising Surgen del problema de modelar materiales ferromagnéticos en lo que se conoce como el Modelo Ising. Se tiene una serie de dipolos en una línea que pueden estar orientados hacia arriba (+) o hacia abajo (-). El estado de cada dipolo se ve influenciado por los dipolos cercanos - probabilidad para cada estado depende de los estado de los puntos vecinos. L.E. Sucar: PGM - CAM 4
5 Modelo de Ising q1 q2 q3 q4 Posibles configuraciones: L.E. Sucar: PGM - CAM 5
6 Modelo de Ising Un campo de Markov asigna probabilidad a cada configuración en el espacio de posibles configuraciones. Se considera que la probabilidad del estado de una variable es independiente de los demás dados sus 2 vecinos (para una cadena), es decir que tiene la propiedad Markoviana ( S q S = q, S = q ) = P( S = q S = q S q ) P = n = i 1 j 2 k... n i n! 1 j, n + 1 k L.E. Sucar: PGM - CAM 6
7 Configuración más probable Dadas las probabilidades locales, el problema central en es encontrar la probabilidad de cada una las posibles configuraciones, y en particular cual es la configuración más probable L.E. Sucar: PGM - CAM 7
8 Probabilidades Podemos distinguir dos factores que determinan la probabilidad de una configuración: la P a priori de cada estado, la P conjunta con sus vecinos. En el modelo de Ising, estos corresponden a la influencia de un campo magnético externo, y a las interacciones entre los dipolos vecinos. L.E. Sucar: PGM - CAM 8
9 Campos en 2-D Esto lo podemos extender de una dimensión a dos dimensiones. En este caso tenemos una malla de puntos, donde el estado de cada punto depende del estado de sus vecinos (4, 8, etc). L.E. Sucar: PGM - CAM 9
10 Ejemplo q1 q2 q3 q4 q3 q2 q5 q6 q7 q3 q8 q9 L.E. Sucar: PGM - CAM 10
11 Representación Un campo aleatorio es una colección de variables aleatorias indexadas por sitios. Se considera un conjunto de variables aleatorias F = {F 1,.., F M }, asociadas a cada sitio del sistema de sitios S. Cada variable toma un valor f i de un un conjunto de posibles valores L. Entonces F es un campo aleatorio. Un campo aleatorio de Markov (CAM) es un campo aleatorio con la propiedad de localidad. L.E. Sucar: PGM - CAM 11
12 Propiedades Un CAM debe satisfacer las siguientes propiedades: P P ( f ) ( f f ) = P( f vec( f ) i > 0 s! i! positivo i i Donde vec( f i ) son los vecinos de f i L.E. Sucar: PGM - CAM 12
13 Vecindad Un sistema de vecindad para S se define como: V { V S} = "! i i Cumple con las siguientes dos propiedades: 1. Un sitio no es vecino de si mismo. 2. La relación de vecindad es mutua. Se pueden tener diferentes vecindades (primer orden, segundo orden, etc.). L.E. Sucar: PGM - CAM 13
14 Vecindad Para una malla regular, la vecindad de orden i con radio r se define como: V { v r} ( ( ) ( i) " S dist i v i i =,! Donde dist(x,y) es la distancia euclidiana entre x y y. En un sistema de vecindad de primer orden, cada sitio (interior) tiene 4 vecinos; en uno de segundo orden, 8 vecinos: en uno de tercer orden, 12 vecinos, etc. L.E. Sucar: PGM - CAM 14
15 Ejemplo 1er orden q1 q2 q3 q4 q3 q2 q5 q6 q7 q3 q8 q9 L.E. Sucar: PGM - CAM 15
16 Ejemplo 2do orden q1 q2 q3 q4 q3 q2 q5 q6 q7 q3 q8 q9 L.E. Sucar: PGM - CAM 16
17 Conjuntos Completos El conjunto de sitios junto con las vecindades nos definen un grafo no-dirigido: G=(S, V). Un conjunto completo (C) se define como un subconjunto de sitios de forma que están todos conectado contra todos Un conjunto completo puede ser un solo sitio, C 1, un par de sitios vecinos, C 2, una tripleta de vecinos, C 3, y así sucesivamente. De forma que la colección de C para un grafo esta dada por: C = C C C!!! L.E. Sucar: PGM - CAM 17
18 Redes de Markov Podemos considerar los CAM como un caso especial de un modelo más general que son las Redes de Markov Las redes de Markov (RM) son modelos gráficos probabilísticos no-dirigidos, que representa las dependencias e independencias de un conjunto de variables Un subconjunto A de variables es independiente de otro subconjunto C dado un tercer subconjunto B, si los nodos en B separan en el grafo A de B L.E. Sucar: PGM - CAM 18
19 Redes de Markov Ejemplo: A B C q1 q2 q3 q4 q3 q2 q5 L.E. Sucar: PGM - CAM 19
20 Redes de Markov Parametrización: Podemos en general representar la probabilidad conjunta de una RM como el producto de las probabilidades locales (potenciales) de conjuntos completos con un factor de normalización: P(X 1, X 2,, X n ) = 1/z P(C 1 ) P(C 2 ) P(C m ) Es suficiente considerar sólo los cliques, pero también se pueden considerar otro conjuntos (esto se hace porque es conveniente en la práctica) L.E. Sucar: PGM - CAM 20
21 Parámetros: Redes de Markov P(C3) q1 q2 q3 P(C1) q4 q3 q2 q5 P(C2) L.E. Sucar: PGM - CAM 21
22 Configuración más probable Una aplicación típica de CAMs es para obtener la configuración más probable dadas ciertas restricciones representadas por las probabilidades locales (potenciales) Podemos expresar la probabilidad conjunta, como el producto de las probabilidades de las vecindades: P f = k! P F / G ( ) c c L.E. Sucar: PGM - CAM 22
23 Configuración más probable Dichas probabilidades de las vecindades (potenciales) se pueden ver como restricciones que van a favorecer o desfavorecer ciertas configuraciones. De esta forma, la configuración más probable se puede ver como aquella que tiene una mayor compatibilidad con las probabilidades locales. L.E. Sucar: PGM - CAM 23
24 Configuración más probable Podemos expresar los potenciales en forma de exponenciales (de esta forma pueden ser cualquier número real): Pot(x c ) = exp{-u c (x c )} Así que el producto se vuelve una suma: Up(f) = Σ U c (x c ) Por lo que la probabilidad conjunta se puede expresar como: P 1 Z [ ] ( ) ( ) f = exp U ( f ) F / G! p L.E. Sucar: PGM - CAM 24
25 Campo de Gibbs Lo anterior también se puede obtener mediante una analogía entre los CAM y los Campo Aleatorio de Gíbbs (CAG). Una distribución de Gibbs tiene la siguiente forma (Z es una constante de normalización): P Z ( ) ( ) f = 1 exp&' U( f ) Donde : = ( z $% exp&' U $% ( f ) f ) F T L.E. Sucar: PGM - CAM 25 #!" T #!"
26 Campo de Gibbs U(f) se conoce como la función de energía y se obtiene como la suma de los potenciales de todos los C: U ( f ) = Σc Vc ( f ) La configuración más probable corresponde a la de energía mínima. La función de energía se puede expresar en términos de los C de cada tamaño: U ( f ) ( ) ( ) ( )... =! c1 V1 fi +! c2v2 fi, f j +! c3v3 fi, f j, fk + L.E. Sucar: PGM - CAM 26
27 Campo de Gibbs Se puede demostrar que un CAM y el correspondiente CAG son equivalentes. Esto permite que se pueda expresar la probabilidad conjunta especificando los potenciales de los C. En la práctica se seleccionan los potenciales de acuerdo al comportamiento deseado con los potenciales se codifica el conocimiento a priori del problema. L.E. Sucar: PGM - CAM 27
28 Configuración más probable Entonces, para especificar un CAM se requiere: Definir el esquema de vecindad Especificar las probabilidades (potenciales) para cada uno de los conjuntos completos de nodos Para el caso de vecindad de primer orden: U ( f ) =! V ( f ) + " V ( f ) p c c! O O L.E. Sucar: PGM - CAM 28
29 Configuración más probable V c corresponde a P F o la información del dominio dada por los vecinos y V O corresponde a P G/F o la información de las observaciones; λ es una constante que da el peso relativo entre ambas. Bajo este enfoque, la solución a un problema particular corresponde en encontrar la configuración del CAM de mayor probabilidad o de energía (U P ) mínima. La función que se logre depende de la forma de las funciones para V C y V 0. L.E. Sucar: PGM - CAM 29
30 Ejemplo Por ejemplo, podemos querer suavizar una imagen; es decir, minimizar la distancia de cada pixel a sus vecinos, pero también mantenerlo cercano a su valor en la imagen (observación): 0 ( f ) = ( f! u) V c V! 2 ( f ) = ( f g) 2 L.E. Sucar: PGM - CAM 30
31 Ejemplo q1 q2 q3 F imagen suavizada q4 q3 q2 q5 q6 q7 q3 q8 q9 G imagen original L.E. Sucar: PGM - CAM 31
32 Analogía Física L.E. Sucar: PGM - CAM 32
33 Analogía Física - más peso a las observaciones - L.E. Sucar: PGM - CAM 33
34 Analogía Física - más peso a los vecinos - L.E. Sucar: PGM - CAM 34
35 Algoritmos El obtener la configuración de mayor probabilidad (mínima energía) en forma directa (exhaustiva) prácticamente imposible (excepto para problemas muy pequeños), por lo que se plantea como un problema de búsqueda. Se busca la configuración de mayor probabilidad, sin tener que calcular directamente las probabilidades de cada configuración. L.E. Sucar: PGM - CAM 35
36 Algoritmos El problema incluye 3 aspectos: 1. Representación: CAM con un esquema de vecindad y los potenciales asociados 2. Función objetivo: Función de energía a minimizar. 3. Algoritmo de optimización: simulación estocástica (Metropolis) L.E. Sucar: PGM - CAM 36
37 Algoritmo básico Inicializar con un valor aleatorio cada variable. Repetir para cada variable en el campo: - Calcular el valor de energía (potencial) de cada variable en base a la función deseada y los valores de los vecinos. - Si el valor de energía es menor al anterior cambiar de valor. - Si no, con cierta probabilidad también cambiar de valor. Hasta que se cumplan N iteraciones o ya no haya cambios (convergencia) Obtener configuración óptima L.E. Sucar: PGM - CAM 37
38 Variantes Cálculo del óptimo: MAP: se toma el valor para cada variable al final de las iteraciones. MPM: se toma el valor de mayor frecuencia de acuerdo a su ocurrencia durante la simulación. L.E. Sucar: PGM - CAM 38
39 Variantes Forma de optimización: Metrópolis: con probabilidad fija se puede pasar a estados de mayor energía. Recocido simulado: se va disminuyendo la probabilidad de pasar a estados de mayor energía (temperatura). ICM: tomar siempre el estado de menor energía. L.E. Sucar: PGM - CAM 39
40 Probabilidades de transición Probabilidad de transición a estado de mayor energía: P = e "! V / T Donde δv es la diferencia de energía y T es la temperatura L.E. Sucar: PGM - CAM 40
41 Ejemplo Dada la siguiente imagen: Consideramos: Configuración inicial de ceros Vecindad de primer orden Potenciales de suavizamiento con λ= L.E. Sucar: PGM - CAM 41
42 Ejemplo 1era iteración: 1er sitio: V1 (0) = 0 V1(1) = (1) = L.E. Sucar: PGM - CAM 42
43 Ejemplo 11vo sitio: V11(0) = 2 V11(1) = L.E. Sucar: PGM - CAM 43
44 Ejemplo 2da iteración 11ovo sitio: V11(0) = 4 V11(1) = L.E. Sucar: PGM - CAM 44
45 Aplicaciones Procesamiento de imágenes Eliminación de ruido Filtrado de una imagen Segmentación de texturas Visión estereoscópica Recuperación de forma (3-D) Reconocimiento de objetos Etiquetado de imágenes L.E. Sucar: PGM - CAM 45
46 Ejemplo eliminación de ruido L.E. Sucar: PGM - CAM 46
47 Ejemplo eliminación de ruido L.E. Sucar: PGM - CAM 47
48 Ejemplo eliminación de ruido L.E. Sucar: PGM - CAM 48
49 Otro ejemplo: anotación de imágenes Grass 0.6 Tree 0.2 rock 0.1 building 0.1 People 0.4 Tree 0.3 Mountain 0.2 Jet 0.1 Considerar relaciones espaciales entre regiones Church 0.3 Grass 0.3 Sky 0.2 Elephant 0.2 Tree 0.5 Grass 0.3 Sky 0.1 Jet 0.1 Grass, Tree, Sky, Elephant Usar CAMs para obtener mejor configuración R 1 R 2 R 3 R 4 c 1 grass people tree church c 2 grass tree tree church c..... c i grass tree tree elephant c..... c j tree people tree church c 256 building Jet jet L.E. Sucar: PGM - CAM elephant 49
50 Campos de Markov Combinar probabilidad previa (clasificador) con la probabilidad de la etiqueta dados sus vecinos (relaciones espaciales) Grass 0.6 Tree 0.2 rock 0.1 building 0.1 People 0.4 Tree 0.3 Mountain 0.2 Jet 0.1 Church 0.3 Grass 0.3 Sky 0.2 Elephant 0.2 Tree 0.5 Grass 0.3 Sky 0.1 Jet 0.1 a 1 a 2 Grass Tree Church a 4 Jet a 3 L.E. Sucar: PGM - CAM 50
51 Función de energía Considera el potencial inicial de acuerdo a las características de la región (V O ) y los potenciales dados por sus vecinos para 3 tipos de relaciones espaciales: Topológicas (V T ) Horizontales (V H ) Verticales (V V ) L.E. Sucar: PGM - CAM 51
52 Potenciales Los potenciales son inversamente proporcionales a las probabilidades de cada relación: L.E. Sucar: PGM - CAM 52
53 Resultados L.E. Sucar: PGM - CAM 53
54 Referencias Li, Markov Random Fields Models in Computer Vision, Springer-Verlag Chellapa, Jain, Markov Random Fields: Theory and Models, Academic Press. C. Hernández, L.E. Sucar, "Markov Random Fields and Spatial Information to Improve Automatic Image Annotation", Advances in Image and Video Technology, Lecture Notes in Computer Science 4872, Springer-Verlag, pp , [Koller & Friedman]: Capítulo 4 L.E. Sucar: PGM - CAM 54
55 Actividades Hacer ejercicio de Campos de Markov L.E. Sucar: PGM - CAM 55
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE. Sesión 10: Redes Bayesianas Inferencia. 1era parte. [Neapolitan 90]
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Inferencia 1era parte [Neapolitan 90] Inferencia en Redes Bayesianas Introducción Clases de algoritmos 1era Parte Propagación
Curso de Inteligencia Artificial
Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias
Sesión 2: Teoría de Probabilidad
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad las reglas mátemáticas de la probabilidad no son simplemente reglas para calcular frecuencias de variables aleatorias;
Sesión 4: Teoría de Grafos
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 4: Teoría de Grafos Problema de los puentes de Königsberg [Euler] Teoría de Grafos Definición y terminología Tipos de grafos Trayectorias y
Teoría de grafos y optimización en redes
Teoría de grafos y optimización en redes José María Ferrer Caja Universidad Pontificia Comillas Definiciones básicas Grafo: Conjunto de nodos (o vértices) unidos por aristas G = (V,E) Ejemplo V = {,,,,
Redes bayesianas temporales para reconocimiento de escenarios
Redes bayesianas temporales para reconocimiento de escenarios Ahmed Ziani and Cina Motamed Visión de Alto Nivel Dr. Enrique Sucar Irvin Hussein López Nava Junio 2009 Introducción (1) Objetivo: aplicaciones
Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile
Redes Bayesianas (3) Carlos Hurtado L. Depto. de Ciencias de la Computación, Universidad de Chile Referencia Tutorial NIPS (Neural Information Processing Systems Conference) 2001: Learning Bayesian Networks
II. El Postulado Fundamental de la Mecánica Estadística
II. El Postulado Fundamental de la Mecánica Estadística El Postulado Fundamental. Concepto microscópico de Entropía, Temperatura y Equilibrio Térmico. Principios de la Termodinámica. Función de partición.
1. GRAFOS : CONCEPTOS BASICOS
1. GRAFOS : CONCEPTOS BASICOS Sea V un conjunto finito no vacio y sea E V x V. El par (V, E) es un grafo no dirigido, donde V es un conjunto de vértices o nodos y E es un conjunto de aristas. Denotaremos
Bases Formales de la Computación: Sesión 3. Modelos Ocultos de Markov
Bases Formales de la Computación: Sesión 3. Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali Periodo 2008-2 Contenido 1 Introducción
Generación de números aleatorios con distribución uniforme
Generadores de Números Aleatorios 1 Existen en la actualidad innumerables métodos para generar números aleatorios En la literatura disponible se pueden encontrar gran cantidad de algoritmos. Generación
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar
Inteligencia Artificial
Algoritmos genéticos Bases En la naturaleza todos los seres vivos se enfrentan a problemas que deben resolver con éxito, como conseguir más luz solar o conseguir comida. La Computación Evolutiva interpreta
NUEVOS ALGORITMOS INTELIGENTES PARA REDES DE DISTRIBUCIÓN DESEQUILIBRADAS. Ana Morales Directora General DIgSILENT Ibérica
NUEVOS ALGORITMOS INTELIGENTES PARA REDES DE DISTRIBUCIÓN DESEQUILIBRADAS Ana Morales Directora General DIgSILENT Ibérica NUEVOS ALGORITMOS DIgSILENT trabaja en el desarrollo de nuevos algoritmos para
Caracterización de Imágenes
de Imágenes Visión Artificial Andrea Rueda Pontificia Universidad Javeriana Departamento de Ingeniería de Sistemas Caracterizar: "determinar los atributos peculiares de alguien o de algo, de modo que claramente
SIMULATED ANNEALING. Un algoritmo estocástico de búsqueda local
SIMULATED ANNEALING Un algoritmo estocástico de búsqueda local SIMULATED ANNEALING Hill-Climbing es un algoritmo incompleto porque puede estancarse en óptimos locales y no alcanzar el óptimo global pero
Curso de Procesamiento Digital de Imágenes
Curso de Procesamiento Digital de Imágenes Impartido por: Elena Martínez Departamento de Ciencias de la Computación IIMAS, UNAM, cubículo 408 http://turing.iimas.unam.mx/~elena/teaching/pdi-mast.html [email protected]
Procesos estocásticos. Definición
Procesos estocásticos Definición http://humberto-r-alvarez-a.webs.com Definición de proceso estocástico Estudio del comportamiento de una variable aleatoria a lo largo del tiempo El ajuste de cualquier
Autómatas Deterministas. Ivan Olmos Pineda
Autómatas Deterministas Ivan Olmos Pineda Introducción Los autómatas son una representación formal muy útil, que permite modelar el comportamiento de diferentes dispositivos, máquinas, programas, etc.
Simulación. Problema del jardinero. Modelo de stock aleatorio. Camino crítico.
Simulación Temario de la clase Introducción. Generacion de variables aleatorias: método de la transformada inversa. Avance del tiempo de simulación. Determinación de la cantidad de iteraciones requeridas.
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ZUMPANGO LICENCIATURA EN TURISMO UNIDAD DE APRENDIZAJE: ESTADISTICA TEMA 1.5 : ESTADISTICA DESCRIPTIVA M. EN C. LUIS ENRIQUE KU MOO FECHA:
Teoría de probabilidades
Modelos Probabilistas Teoría de probabilidades Teoría de probabilidades Definiremos como probabilidad a priori (P(a)) asociada a una proposición como el grado de creencia en ella a falta de otra información
Análisis de imágenes digitales
Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Segmentación basada en texturas INTRODUCCIÓN La textura provee información sobre la distribución espacio-local del color o niveles de intensidades
Procesamiento de Imágenes. Curso 2011 Clase 3 Eliminación del ruido mediante filtrado espacial
Procesamiento de Imágenes Curso 2 Clase 3 Eliminación del ruido mediante filtrado espacial Eliminación del ruido Entendemos por ruido en imágenes digitales cualquier valor de un píxel de una imagen que
CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico
PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV Una sucesión de observaciones X1, X2, Se denomina proceso estocástico Si los valores de estas observaciones no se pueden predecir exactamente Pero se pueden especificar
Vigas de gran peralte
7.1.3. Vigas de gran peralte Con este tercer grupo de modelos, se pretende investigar el efecto en la optimización topológica cuando una carga cambia de posición. Para ello se consideraron las siguientes
CONTENIDO MODELOS PARA LA LOCALIZACION DE PLANTA
MODELOS PARA LA LOCALIZACION DE PLANTA PROFESOR: DR. JORGE ACUÑA A. 1 CONTENIDO Modelos de localización Modelos de optimización Modelo del centro de gravedad Modelo de distancias (Ardalan) Trayectorias
Ingeniería en Sistemas Computacionales. Inteligencia Artificial. Ing. Bruno López Takeyas. Algoritmo Hill Climbing
Ingeniería en Sistemas Computacionales Inteligencia Artificial Ing. Bruno López Takeyas Algoritmo Hill Climbing Alumnos Ylliana Samantha Anderson Benavides 01100161 Pablo Saúl Hernández Ribota 01100230
Tema 4. Reducción del ruido
Div. Ingeniería de Sistemas y Automática Universidad Miguel Hernández GRUPO DE TECNOLOGÍA INDUSTRIAL Tabla de Contenidos Definición Filtros Lineales Filtros Temporales Realce Espacial Definición Ruido:
OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 5 Simulación
OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA Tema 5 Simulación ORGANIZACIÓN DEL TEMA Sesiones: Introducción Ejemplos prácticos Procedimiento y evaluación de resultados INTRODUCCIÓN Simulación: Procedimiento
CONTENIDO Prefacio CAPITULO 1: Qué es la investigación de operaciones? CAPITULO 2: Introducción a la programación lineal...
CONTENIDO Prefacio XV CAPITULO 1: Qué es la investigación de operaciones? 1 1.1 Modelos de investigación de operaciones 1 1.2 Solución del modelo de investigación de operaciones.. 4 1.3 Modelos de colas
Aprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Procesos estocásticos Cadenas de Márkov
Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el
1 Control Óptimo. 1.1 Introducción Problema típico de control óptimo
1 Control Óptimo 1.1 Introducción El control óptimo es una rama del control moderno que se relaciona con el diseño de controladores para sistemas dinámicos tal que se minimice una función de medición que
Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo
Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay
Estadística Espacial en Ecología del Paisaje
Estadística Espacial en Ecología del Paisaje Introducción H. Jaime Hernández P. Facultad de Ciencias Forestales U. de Chile Tipos de datos en análisis espacial Patrones espaciales puntuales Muestras geoestadísticas
Ejercicio 1. Ejercicio 2
Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función
3 ANALISIS DESCRIPTIVO DE LOS DATOS
3 ANALISIS DESCRIPTIVO DE LOS DATOS 3.1 La tabulación de los datos 3.1.1 Tabla de distribución de frecuencias. 3.1.2 El histograma. 3.2 Medidas de tendencia central 3.2.1 La media. 3.2.2 La mediana. 3.2.3
FORMALIZACIÓN Y EJECUCIÓN DEPARTAMENTO DE ELECTRÓNICA Y COMPUTADORES. Mercedes Granda Departamento de Electrónica y Computadores
REDES DE PETRI: DEFINICIÓN, FORMALIZACIÓN Y EJECUCIÓN PROGRAMACIÓN CONCURRENTE MASTER EN COMPUTACIÓN DEPARTAMENTO DE ELECTRÓNICA Y COMPUTADORES UNIVERSIDAD DE CANTABRIA CURSO 22/3 REDES DE PETRI Las redes
Tema 4: Gramáticas independientes del contexto. Teoría de autómatas y lenguajes formales I
Tema 4: Gramáticas independientes del contexto Teoría de autómatas y lenguajes formales I Bibliografía Hopcroft, J. E., Motwani, R., y Ullman, J. D. Introducción a la Teoría de Autómatas, Lenguajes y Computación.
Preparación de los datos de entrada
Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:
Generación de variables aleatorias discretas Método de la Transformada Inversa
Generación de variables aleatorias discretas Método de la Transformada Inversa Patricia Kisbye FaMAF 30 de marzo, 2010 Generación de v.a. discretas Existen diversos métodos para generar v.a. discretas:
Tiro Oblicuo. Autor: Darío Kunik. Contacto
Tiro Oblicuo. Autor: Darío Kunik Contacto [email protected] En este apartado se analizan los datos obtenidos a partir del video de la pelota que realiza un tiro oblicuo. Como describimos en el tutorial
GENERACION DE NUMEROS ALEATORIOS Y VARIABLES ALEATORIAS
GENERACION DE NUMEROS ALEATORIOS Y VARIABLES ALEATORIAS La simulación de eventos se basa en la ocurrencia aleatoria de los mismos, por ello los números aleatorios y las variables aleatorias son de especial
Procesos Estocásticos I
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO Facultad de Ciencias Plan de estudios de la Licenciatura en Actuaría Procesos Estocásticos I Clave 0630 Modalidad Semestre 5 Créditos 10 Área Campo de conocimiento
Tema 2 Primeros Modelos Computacionales
Universidad Carlos III de Madrid OpenCourseWare Redes de Neuronas Artificiales Inés M. Galván - José Mª Valls Tema 2 Primeros Modelos Computacionales 1 Primeros Modelos Computacionales Perceptron simple
CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD
CONTENIDOS 1. Procesos Estocásticos y de Markov 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD 4. Comportamiento Estacionario de las CMTD 1. Procesos Estocásticos
Redes de Neuronas de Base Radial
Redes de Neuronas de Base Radial 1 Introducción Redes multicapa con conexiones hacia delante Única capa oculta Las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta
El Algoritmo E-M. José Antonio Camarena Ibarrola
El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas
El Plan de Estudios no establece ningún prerrequisito para poder cursar esta asignatura.
GUÍA DOCENTE DE LA ASIGNATURA PROBABILIDAD Y PROCESOS ESTOCÁSTICOS 1. Descriptores de la asignatura: Espacios de probabilidad. Teoremas límite. Procesos markovianos. Aplicaciones. 2. Situación de la asignatura.
Ecuaciones diferenciales ordinarias
Tema 9 Ecuaciones diferenciales ordinarias Versión: 13 de mayo de 29 9.1 Introducción El objetivo de este tema es exponer muy brevemente algunos de los conceptos básicos relacionados con las ecuaciones
El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X
Momentos El momento k-ésimo para una variable aleatoria discreta respecto del origen, es E(x) n = i = 1 k i ( ) x.p x El primer momento centrado en el origen (k=1) es la esperanza matemática de X También
INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 6)
TEMA Nº 6 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD OBJETIVOS DE APRENDIZAJE: Ser capaz de definir correctamente una o más variables aleatorias sobre los resultados de un experimento aleatorio y determinar
TEMA 6: INTRODUCCIÓN A UML
TEMA 6: INTRODUCCIÓN A UML Por qué modelamos? El modelado es una parte central de todas las actividades que conducen a la producción de un software de calidad. Como tal la ingeniería software debe basarse
Deep Learning y Big Data
y Eduardo Morales, Enrique Sucar INAOE (INAOE) 1 / 40 Contenido 1 2 (INAOE) 2 / 40 El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia ha sido el foco
Regresión polinomial y factores
Capítulo Regresión polinomial y factores.. Regresión polinomial Si una función media tiene un predictor X pueden usarse sus potencias enteras para aproximar E (Y X). El caso más simple es la regresión
Syllabus de Base de Datos Espaciales
Materia: Base de Datos Espaciales Objetivo(s) del curso: El alumno utilizará los principios de las Bases de Datos Espaciales para representar datos espaciales, así como e implementar bases de datos geográficas.
Álgebra de Boole. Valparaíso, 1 er Semestre Prof. Rodrigo Araya E.
Prof. Rodrigo Araya E. [email protected] Universidad Técnica Federico Santa María Departamento de Informática Valparaíso, 1 er Semestre 2006 1 2 3 4 Contenido En 1815 George Boole propuso una herramienta
DISTRIBUCIÓN NORMAL. Modelo matemático: f ( x ) = σ 2 π
DISTRIBUCIÓN NORMAL. Es la más importante de las distribuciones teóricas, es también conocida con los nombres de curva normal y curva de Gauss. De Moivre publico en 1773 su trabajo sobre la curva normal
PIPE - Probabilidad y Procesos Estocásticos
Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos ECTS: 2017 200 - FME - Facultad de Matemáticas y Estadística 749 - MAT - Departamento de Matemáticas MÁSTER UNIVERSITARIO EN ESTADÍSTICA
AYUDANTÍA 2: RIESGO EN PROYECTOS
AYUDANTÍA 2: RIESGO EN PROYECTOS ICC2302 INGENIERÍA DE CONSTRUCCIÓN 1 2008 TEMARIO Estimación de Costos de Proyectos Estimación Preliminar Estimación Conceptual Estimación Detallada Estimación Definitiva
Unidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D
Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del
Métodos evolutivos de Optimización. Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid
Métodos evolutivos de Optimización Prof. Cesar de Prada Dpto. Ingeneiria de Sitemas y Automática Universidad de Valladolid Indice Introducción Método de Montecarlo Algoritmos genéticos Tabú Search Simulated
FUNCIÓN EXPONENCIAL. Ing. Caribay Godoy Rangel
FUNCIÓN EXPONENCIAL Definir e identificar una función exponencial, establecer su dominio y rango. Conocer las características de la gráfica de una función exponencial. Explorar el cambio gráfico que se
1. El Método de Diferencias Finitas
1. El Método de Diferencias Finitas Por Guillermo Hernández García El Método consiste en una aproximación de derivadas parciales por expresiones algebraicas envolviendo los valores de la variable dependiente
Tema 5 Algunas distribuciones importantes
Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos
Programación Evolutiva
Introducción a la Computación Evolutiva Quinta Clase: Programación Evolutiva Programación Evolutiva Desarrollada en USA durante los años 60 Autores principales: D. Fogel Aplicada típicamente a: PE tradicional:
Inteligencia Artificial. Aprendizaje neuronal. Ing. Sup. en Informática, 4º. Curso académico: 2011/2012 Profesores: Ramón Hermoso y Matteo Vasirani
Inteligencia Artificial Aprendizaje neuronal Ing. Sup. en Informática, 4º Curso académico: 20/202 Profesores: Ramón Hermoso y Matteo Vasirani Aprendizaje Resumen: 3. Aprendizaje automático 3. Introducción
Análisis de imágenes digitales
Análisis de imágenes digitales SEGMENTACIÓN DE LA IMAGEN Transformada watershed CONCEPTOS BÁSICOS En la morfología matemática, se define una técnica de segmentación basada en regiones denominada transformada
Breve introducción a la Investigación de Operaciones
Breve introducción a la Investigación de Operaciones Un poco de Historia Se inicia desde la revolución industrial, usualmente se dice que fue a partir de la segunda Guerra Mundial. La investigación de
Diagramas de interacción
Tema 6: Diagramas de Interacción Diagramas de interacción Los diagramas de interacción son diagramas que describen cómo grupos de objetos colaboran para conseguir algún fin. Estos diagramas muestran objetos,
Metaheurísticas y heurísticas. Algoritmos y Estructuras de Datos III
Metaheurísticas y heurísticas Algoritmos y Estructuras de Datos III Metaheurísticas Heurísticas clásicas. Metaheurísticas o heurísticas modernas. Cuándo usarlas? Problemas para los cuales no se conocen
Unidad Temática 3: Probabilidad y Variables Aleatorias
Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento
mecánica estadística Principios Fundamentales Capítulo 1
mecánica estadística Principios Fundamentales Capítulo 1 2013 Objetivo de la mecánica estadística Predecir el comportamiento macroscópico de un sistema, en base de las propiedades microscópicas de las
Modelación de Incertidumbre para la Toma de Decisiones
14 de febrero de 2003 Modelación de Incertidumbre para la Toma de Decisiones Dr. Roberto Ley Borrás CONSULTORÍA EN DECISIONES robertoley (at) decidir. org Basado en el libro Análisis de Incertidumbre y
Son una clase particular de los algoritmos evolutivos.
Algoritmos Genéticos (AGs) Los AGs son técnicas de resolución para problemas de Búsqueda Optimización Aprendizaje en máquinas Son una clase particular de los algoritmos evolutivos. Los AGs intentan resolver
AUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS
AUTÓMATAS PROBABILÍSTICOS O ESTOCÁSTICOS Autómatas Probabilísticos En su funcionamiento interviene el concepto de probabilidad, asociada a que se produzca una determinada transición. Son autómatas finitos
JUEGO DE BASKETBALL. Repaso de Distribuciones de Probabilidad Discretas y Continuas
JUEGO DE BASKETBALL Repaso de Distribuciones de Probabilidad Discretas y Continuas PREGUNTA #1 Qué es una variable aleatoria uniforme discreta? Cómo es su distribución? Qué es una variable aleatoria uniforme
Visión de Alto Nivel
Visión de Alto Nivel Dr. Luis Enrique Sucar INAOE [email protected] ccc.inaoep.mx/~esucar Sesión 1 Introducción 1 Introducción 2 Qué es Visión? Visión es saber que hay y donde mediante la vista (Aristóteles)
Clase I. Ejemplo donde equilibrios de Nash y de Nash perfecto en subjuegos no coinciden
Economía política Jorge M. Streb Clase 5 2.7.22 Temas. Ejemplo donde equilibrios de Nash y de Nash perfecto en subjuegos no coinciden. Representación de un juego en forma normal y extensiva. Equivalencia
Orden de enlace = (4 2)/2 = 1 Todas las subcapas llenas. No tiene momento magnético neto. Diamagnética
UIVRSIDAD D GRAADA. º CURS D QUÍMICA, QUÍMICA FÍSICA I. PRBLMAS RSULTS D LA RLACIÓ 5. Problema 5-1. Utilizando el método de M, escriba las configuraciones electrónicas del estado fundamental y determine
Procesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Inteligencia Computacional (IA95 021) Algoritmos Simples de Optimización Ciega
Algoritmos Simples de Optimización Ciega c M. Valenzuela 1996 2002 (17 de enero de 2006) 1. Optimización ciega 1.1. Introducción Algoritmos genéticos y recocido simulado son métodos de optimización ciega.
PROBABILIDAD. Unidad I Ordenamiento de la Información
1 PROBABILIDAD Unidad I Ordenamiento de la Información 2 Captura de datos muestrales Conceptos básicos de la estadística 3 Población (o universo): Totalidad de elementos o cosas bajo consideración Muestra:
Sesión 10: Redes Bayesianas Aprendizaje
Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 10: Redes Bayesianas Aprendizaje Preferiría descubrir una ley causal que ser rey de Persia [Democritus] Aprendizaje de Redes Bayesianas Introducción
LECTURA 10: NOCIONES DE PROBABILIDAD (PARTE I) DEFINICIONES BÁSICAS DE PROBABILIDAD. PROBABILIDAD Y ENFOQUES DE PROBABILIDAD
LECTURA 10: NOCIONES DE PROBABILIDAD (PARTE I) DEFINICIONES BÁSICAS DE PROBABILIDAD. PROBABILIDAD Y ENFOQUES DE PROBABILIDAD TEMA 20: DEFINICIONES BASICAS DE PROBABILIDAD 1. EXPERIMENTO Un experimento
CAPITULO 1: PERSPECTIVE GENERAL DE LA
CONTENIDO CAPITULO 1: PERSPECTIVE GENERAL DE LA INVESTIGACION DE OPERACIONES 1 1.1 Modelos matemáticos de investigación de operaciones. 1 1.2 Técnicas de investigación de operaciones 3 1.3 Modelado de
SEGMENTACIÓN DE IMÁGENES UTILIZANDO CAMPOS ALEATORIOS DE MARKOV IMAGE SEGMENTATION USING MARKOV RANDOM FIELDS
SEGMENTACION DE IMAGENES UTILIZANDO CAMPOS ALEATORIOS DE MARKOV SEGMENTACIÓN DE IMÁGENES UTILIZANDO CAMPOS ALEATORIOS DE MARKOV IMAGE SEGMENTATION USING MARKOV RANDOM FIELDS JAIME FRANCISCO PANTOJA BENAVIDES
Cadenas de Markov Tiempo Discreto. Modelado y Análisis de Redes de Telecomunicaciones
Cadenas de Markov Tiempo Discreto Modelado y Análisis de Redes de Telecomunicaciones Motivación Ejemplo 1 Sea un enrutador al que arriban paquetes de otros (varios) routers Cuando más de un paquete llega
