Técnicas de inteligencia artificial. Visión Artificial Reconocimiento de objetos

Documentos relacionados
Visión artificial y Robótica. Depto. de Ciencia de la Computación e Inteligencia Artificial

Álgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE:

Álgebra Lineal - Grado de Estadística. Examen final 27 de junio de 2014 APELLIDOS, NOMBRE:

Matemáticas 2ºBachillerato Aplicadas a las Ciencias Sociales. Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales de la forma:

Uso de LS. Esta matriz de 3x3 simétrica y definida positiva es un tensor de difusión de hidrógeno. , con gi en R 3. i S 0 exp bgt i Dg i i

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

Fundamentos Matemáticos de la Ingeniería. Tema 4: Diagonalización de matrices. Curso

EXAMEN JUNIO PP 1A SEMANA

6.8. Descomposición mediante valores singulares. v 2 =

Tema 21. Exponencial de una matriz Formas canónicas de Jordan.

ANÁLISIS DE COMPONENTES PRINCIPALES

Estimación de homografías

Aplicaciones Lineales. Diagonalización de matrices.

Solución de problemas I 1

Sesión 18: Diagonalización (I) Método práctico para diagonalizar una matriz cuadrada A M nxn K

AUTOVALORES Y AUTOVECTORES EL AUTOVALOR

TEMA III: DIAGONALIZACIÓN.

Eigenvalores y eigenvectores

PROPUESTA A. b) Para dicho valor de a, da la ecuación implícita de un plano que contenga a r y a s. (1 25 puntos)

PROPUESTA A. 3A. a) Despeja X en la ecuación matricial X A B = 2X donde A, B y X son matrices cuadradas

Cónicas. Clasificación.

Examen Final Ejercicio 2 (1 hora y 30 min.) 27 de mayo de 2011

FUNDAMENTOS MATEMÁTICOS (Grado en Ingeniería Informática) Práctica 8. SISTEMAS DE ECUACIONES LINEALES

6.14 Descomposición ortogonal y proyección ortogonal

Álgebra Lineal. Tema 12. Mínimos cuadrados II. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Clase 7 Herramientas de Álgebra Lineal

Semana 11 Matrices y vectores - Sistemas de EDOs - Modelica. Elizabeth Villota Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería

Estadística III Repaso de Algebra Lineal

Se dice que una matriz cuadrada A es invertible, si existe una matriz B con la propiedad de que

Denotamos a los elementos de la matriz A, de orden m x n, por su localización en la matriz de la

Álgebra y Matemática Discreta

Ejercicios resueltos del capítulo 4

Análisis Factorial General.

2.1. ESTIMACIÓN DE PARÁMETROS BASADO EN LA SENSIBILIDAD.

Interfaz hombre máquina basado en el análisis de los gestos faciales mediante visión artificial

Álgebra lineal. Noviembre 2018

Matemáticas I Grado de Administración y Dirección de Empresas Examen de Febrero Curso 2011/ ?

ÁLGEBRA LINEAL. EXAMEN FINAL 18 de Enero de b) (0, 5 puntos) Estudia si la siguiente afirmación es verdadera o falsa, justificando

M a t e m á t i c a s I I 1

Análisis de componentes principales. a.k.a.: PCA Principal components analysis

Capítulo 5. Escalado Multidimensional 5.1. ESCALADO MÉTRICO

Estéreo dinámico. Estéreo dinámico

1. ESPACIO EUCLÍDEO. ISOMETRÍAS

Diagonalización de matrices.

2. Formas cuadráticas. Expresiones diagonales. Clasificación respecto a su signo.

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices

Visión artificial y Robótica Geometría. Depto. de Ciencia de la Computación e Inteligencia Artificial

CÓNICAS. 1. Dada la cónica x 2 + 2xy y 2 2x 2y + 4 = 0, se pide su clasicación y los elementos característicos de la misma. = 1

0 a b X = b c 0. f X (A) = AX XA.

M a t e m á t i c a s I I 1

Fundamentos matemáticos básicos de la realidad virtual

Tema 6: Autovalores y autovectores

Matrices y sistemas de ecuaciones lineales. Autovalores y autovectores.

PROGRAMA ANALÍTICO DE LA ASIGNATURA ALGEBRA II

C/ Fernando Poo 5 Madrid (Metro Delicias o Embajadores).

PROBLEMAS DE ÁLGEBRA LINEAL INGENIERÍA DE TELECOMUNICACIONES - E.T.S.I.T. CURSO 2005/06

SOLUCIONES. ÁLGEBRA LINEAL Y GEOMETRÍA (Examen Ordinario : ) Grado en Matemáticas Curso

Solución de problemas III 1

Algoritmo de factorización LU

Soluciones a los ejercicios del examen final C =. 1 0

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

DETERMINANTES. 2. Resuelve el siguiente determinante aplicando la regla de Sarrus:

MATRICES Y SISTEMAS DE ECUACIONES

PROPUESTA A. b) Para el valor de a obtenido, calcula los puntos de inflexión de la función f(x). (1 25 puntos)

PROPUESTA A., se pide: a) Calcula las asíntotas verticales y oblicuas de f(x). (1,25 puntos)

Algebra lineal y conjuntos convexos

Álgebra Lineal y Geometría I. Prueba 3. Grupo A. 12 de marzo de (

Álgebra Lineal UCR. Sétimo tema, 2013

Matemáticas Empresariales II. Diagonalización de Matrices

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

Fundamentos matemáticos básicos de la realidad virtual

Álgebra Lineal. Tema 7. Forma normal de una transformación

ALGEBRA. Escuela Politécnica Superior de Málaga

Problemas y Ejercicios Resueltos. Tema 4: Sistemas de ecuaciones lineales.

PROPUESTA A. 1A a) Enuncia el teorema de Bolzano.

Técnicas de optimización en visión artificial

Tema 9. Análisis factorial discriminante

Método de mínimos cuadrados (Continuación)

2 + 5i. b) Hallar todas las raíces de raíz cúbica de -27. Dar el resultado en binómica y polar.

Determinantes. Definiciones básicas sobre determinantes. José de Jesús Angel Angel.

Diagonalización de Endomorfismos

Repaso de conceptos de álgebra lineal

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2000 MATEMÁTICAS II TEMA 3: ESPACIO AFIN Y EUCLIDEO

IDENTIFICACIÓN DE SISTEMAS MÉTODOS POR SUB-ESPACIOS

Algoritmo de la factorización LU

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Matrices y determinantes

SISTEMAS DE ECUACIONES LINEALES MÉTODO DE LA MATRIZ INVERSA

Álgebra Lineal. Tema 5 Ecuaciones diferenciales lineales

Matemáticas Nivel Medio Matemáticas Ap.CC.SS.II

OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES

Álgebra. Ingeniería Industrial. Curso 2006/2007 Examen de Septiembre

Preparaduría V. 1.- Sea A una matriz diagonal n n cuyo polinomio característico es

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos.

Cuestiones de Álgebra Lineal

PROPUESTA A. c) Demuestra, usando el Teorema de Rolle, que la ecuación anterior no puede tener más de tres raíces reales distintas.

M a t e m á t i c a s I I 1

ÁLGEBRA Algunas soluciones a la Práctica 8

Las matrices se denotarán usualmente por letras mayúsculas, A, B,..., y los elementos de las mismas por minúsculas, a, b,...

Transcripción:

Técnicas de inteligencia artificial Visión Artificial Reconocimiento de objetos

Indice Introducción Reconocimiento mediante características PCA

Introducción El reconocimiento de objetos consiste en, dado algún conocimiento (forma, apariencia, etc.) sobre uno o varios objetos y una imagen, encontrar qué objetos están en la imagen y dónde El reconocimiento es un proceso difícil debido a: Presencia de otros objetos no modelados Cambio de iluminación Cambio de punto de vista del objeto Oclusión Escala

Ejemplos: reconociento facial Ampliamente extendido: cámaras, Picasa http://www.youtube.com/watch?v=rymr8-9rqpw&feature=related Se suele reconocer una posible posición en la imagen para una cara (mediante color de la piel, identificación de los ojos, etc.) y luego se reconoce la persona (con técnicas de aprendizaje)

Reconocimiento con características Imaginemos que tenemos una imagen de un objeto a reconocer (modelo) Extraemos, por ejemplo, las características SIFT de dicha imagen. El objeto ahora es representado por sus características SIFT Ahora tenemos una nueva imagen (escena) donde queremos buscar ese objeto Extraemos los SIFT de esta nueva imagen Encontramos las correspondencias entre las características del modelo y de la imagen

Reconoc. Características: emparejamiento Esto se puede hacer calculando la distancia euclídea del descriptor Para cada característica del modelo: Encontramos la característica de la escena cuya distancia euclídea esté por debajo de un cierto umbral Ahora tenemos una correspondencia entre los descriptores del modelo y de la escena

Reconocimiento características: transformación Ahora debemos encontrar la transformación entre el modelo y la escena Para simplificar, vamos a ver cómo se puede obtener la transformación 2D-2D afín: donde las variables m son los parámetros de rotación y escala y los t son los de traslación

Reconocimiento características: transformación Tenemos un sistema de varias ecuaciones con varias incógnitas, reescribimos la ecuación de arriba Cada emparejamiento introduce dos nuevas filas a la primera y última matriz. Nombramos las matrices como:

Reconocimiento características: transformación Tenemos un sistema de varias ecuaciones con varias incógnitas, reescribimos la ecuación de arriba Cada emparejamiento introduce dos nuevas filas a la primera y última matriz. Nombramos las matrices como:

Reconocimiento características: transformación Resolvemos el sistema anterior mediante mínimos cuadrados Consiste en encontrar la matriz x que minimiza el error cuadrático medio entre todos los emparejamientos Se resuelve este sistema:

Reconocimiento mediante PCA PCA (Principal Components Analysis): análisis de componentes principales Reduce la dimensionalidad de los datos de entrada Proyecta los datos de entrada en un subespacio Este subespacio está creado a partir de los autovectores de la matriz de covarianza de los datos de entrada

En qué consiste?

PCA Tenemos un conjunto de entrenamiento: (para el caso de imágenes, hacemos la imagen como un vector de una dimensión) Cada elemento es un vector: Calculamos la media de todo el conjunto de entrenamiento Centramos el conjunto de entrenamiento en el origen restándole la media a cada elemento

Entrenamiento Construimos una BD de imágenes intentando tener la máxima variabilidad y que el fondo no nos afecte

PCA Construimos una matriz donde cada columna es un elemento del conjunto de entrenamiento: Calculamos la matriz de covarianza: (matriz NxN, se obtiene el mismo resultado con XTX, matriz PxP, que suele ser de menor tamaño) La matriz de covarianza Q tiene P autovalores con sus correspondientes autovectores (pueden ser calculados mediante la descomposición SVD (Singular Value Decomposition))

PCA Los autovalores y autovectores crean un nuevo espacio (autoespacio, eigenspace) Cada elemento de entrada (imagen) se puede escribir en función de dichos autovectores (los elementos e son los autovectores y g son las coordenadas del elemento en el nuevo espacio):

Valores medios y autovectores El resultado será una imagen media y las correspondientes imágenes para de cada autovector. Aquí se muestran ordenadas por su autovalor asociado

PCA Resumen del método: Calculamos imagen media Se resta la media a cada imagen Se construye la matriz de covarianza Se calculan los autovalores y autovectores de dicha matriz La clave de este método es que solo los mayores autovalores son importantes, es decir, podemos eliminar la información de los autovalores más pequeños

PCA Antes teníamos lo siguiente: Ahora, si tomamos solo los primero k autovalores y autovectores

PCA Para calcular las coordenadas de una imagen en el nuevo espacio

Reconocimiento Primero calculamos las coordenadas de todas las imágenes de entrenamiento en el nuevo espacio Dependiendo de la aplicación, el proceso de reconocimiento puede variar Dada una nueva imagen, calculamos sus coordenadas en el nuevo espacio Si se trata de varios objetos o clases distintas, encontramos a qué elemento (o cluster) del conjunto de entrenamiento se parece más (está más cerca)

Reconocimiento de caras

Aplicación: reconocimiento de gestos Objetivo: reconocer gestos Reconocen gestos con PCA y utilizan un autómata de estados finitos para reconocer el gesto

Autovectores de todo el conjunto