Benemérita Universidad Autónoma de Puebla. Facultad de Ciencias de la Computación

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Benemérita Universidad Autónoma de Puebla. Facultad de Ciencias de la Computación"

Transcripción

1 Benemérita Universidad Autónoma de Puebla. Facultad de Ciencias de la Computación ANALISIS COMPARATIVO DEL DESEMPEÑO DE CUATRO FILTROS PREDICTIVOS APLICADOS AL SEGUIMIENTO VISUAL DE OBJETOS Tesis Profesional Que para obtener el grado de Licenciado en Ciencias de la Computación Presenta C. Josué Jesús Pedroza Almaguer Asesor. Dr. Leopoldo Altamirano Robles Coasesor: MC. José de Jesús Lavalle Martínez

2 Indice INTRODUCCIÓN. Contribuciones Organización de la tesis I III III CAPÍTULO I. ANTECEDENTES Introducción Nociones básicas Teorema de Bayes 3 Variables aleatorias 4 Valor esperado y varianza 6 Distribución normal 9 Procesos de Marov. 0 Propiedades de las cadenas de Marov. 2 Inferencia estadística. 3 Estimador de máxima verosimilitud 7 Estimador Máximo a Posteriori 8 CAPÍTULO II. MODELOS DINÁMICOS 20 Introducción 20 Características espaciales y espectrales. 20 Ruido Blanco. 2 Proceso de Wiener 22 Modelos de espacio de estados 23 Modelos de tiempo continuo 24 Modelos de tiempo discreto 25 Consideraciones sobre modelos dinámicos 28 Modelo de aceleración continua con ruido blanco 29

3 Modelo de aceleración como proceso de Wiener 32 Modelos generales basados en polinomios. 34 Modelo de giros coordinados 35 CAPÍTULO III. FILTROS RECURSIVOS 38 Introducción 38 Filtro Kalman 39 Justificación del filtro Kalman 44 Filtro Kalman Extendido 45 Matriz Jacobiana 45 Derivación del Filtro Kalman extendido 46 Filtro Unscented Kalman 52 Transformación Unscented 54 Algoritmo UKF 56 Derivación de la transformación Unscented 6 Filtro de múltiples Modelos interactuantes IMM 64 Estimador de múltiples modelos estático 65 Filtro IMM 67 Elección de las probabilidades de transición de Marov. 72 Predicción 73 Predicción de punto fijo 74 Predicción de adelanto fijo 74 Predicción de intervalo fijo 75 CAPÍTULO IV. RESULTADOS Y CONCLUSIONES. 76 Datos de entrada 76 Pruebas con los filtros 78 Presentación de los datos 79 Resultados en Imágenes Reales 79 Secuencia 79 Secuencia 2 82 Secuencia 3 84 Secuencia 4 86 Secuencia 5 88 Secuencia 6 90

4 Resultados en Imágenes Sintéticas 92 Secuencia 7 92 Secuencia 8 93 Secuencia 9 95 Secuencia 0 97 Secuencia 99 Secuencia 2 00 Secuencia 3 02 Secuencia 4 03 Tiempo de procesamiento 05 Conclusiones 07 Filtrado 07 Predicción 0 Trabajo Futuro 2 BIBLIOGRAFÍA 3

5 Introducción. La visión por computadora es un área de investigación muy activa dentro del campo de la inteligencia artificial, dado que permite la construcción de sistemas útiles, capaces de interactuar con su entorno, y con un comportamiento confiable. Dentro de esta área, el seguimiento de objetos constituye un tema muy interesante que promete obtener resultados que permitan la creación de dispositivos autónomos. Un sistema de seguimiento de objetos basado en imágenes está conformado básicamente por un sensor que obtenga la imagen junto con algún medio de procesamiento que nos reporte la posición del objetivo. Uno de los problemas al utilizar mediciones por medio de un sensor es el de la obtención de datos que contienen una gran cantidad de ruido. Esto afecta el desempeño del sistema al hacer que el fenómeno observado pueda no corresponder completamente con el fenómeno real. En el caso del seguimiento de objetos esto es particularmente cierto puesto que los datos de posición obtenidos en algún instante de tiempo pueden contener mucho ruido y llegar a ser completamente erróneos, lo que nos puede llevar a perder el objeto de interés. Otro punto importante es que al realizar el seguimiento de un objeto de forma visual, frecuentemente se presenta la oclusión del mismo por parte de algún otro, lo cual ocasiona que el sensor que detecta el objetivo reporte resultados incorrectos. Esta situación puede ser parcialmente superada al aplicar mecanismos que nos permitan predecir el comportamiento y trayectoria del objeto a seguir. Es en este marco en el que la aplicación de filtros sobre los datos se hace necesaria para obtener resultados confiables. I

6 Los filtros que se presentan en esta tesis constituyen herramientas matemáticas muy poderosas que calculan de forma recursiva (es decir, sin la necesidad de contar con el conjunto completo de datos) estimaciones del estado de un proceso y minimizan el valor de error al recibir nuevos datos. Además, es posible calcular estimaciones del estado del sistema en el pasado, el presente, e incluso en el futuro. Ninguno de ellos puede considerarse como el mejor en todas las situaciones, sino que cada uno presenta ventajas y desventajas dependiendo del escenario en el que se apliquen, por lo que resulta interesante hacer una comparación entre ellos. Es por ello que en el presente trabajo se realiza un análisis del desempeño tanto en estimación como en predicción de cuatro de los filtros mas utilizados en la actualidad: el filtro Kalman lineal, el filtro Kalman extendido, el filtro UKF y el filtro IMM. Para el desarrollo de esta investigación se implementó cada uno de ellos y se realizó un análisis comparativo de sus características, su aplicabilidad en diferentes escenarios, su velocidad de ejecución, su error en filtrado y su error en predicción. Cada uno de ellos fue probado en diferentes configuraciones teniendo como entrada los datos generados por un detector de posición puntual. Un detector puntual es aquel que se olvida de características como la forma o el tamaño, y solo considera la posición del objeto de interés como un punto en el espacio. Específicamente se abarcó el caso del seguimiento de aviones y barcos en secuencias de imágenes, así como el de objetos generados por computadora. Se mostrarán las ventajas y desventajas de cada uno de ellos al ser aplicados a diferentes tipos de trayectorias, las cuales incluyen Trayectorias lineales Trayectorias no lineales o Circulares II

7 o Elípticas o Giros coordinados o Maniobras evasivas Se presentarán también algunos modelos matemáticos de movimiento, los cuales son necesarios para poder aplicar estos filtros. Cabe destacar que los resultados obtenidos en este proyecto son aplicables al seguimiento por medio de otro tipo de detectores como radares, sonares, y sistemas de posicionamiento global, entre otros. Contribuciones Los diferentes filtros probados, junto con algunos resultados de su aplicación han sido publicados de manera independiente en diferentes congresos. Un problema de ello, es que cada uno de los trabajos reporta los resultados que obtuvo en el filtro en particular para su aplicación específica y con las condiciones necesarias para el mismo, por lo que no es sencillo obtener un punto de comparación entre los distintos trabajos al no haber sido aplicados sobre un mismo conjunto de datos. Por medio de este trabajo se pretende tener reunidos en un solo documento los resultados obtenidos de cada uno de estos filtros, aplicados sobre el mismo conjunto de datos y bajo las mismas condiciones, lo que permite tener una idea más clara del desempeño de cada uno de estos algoritmos, así como poder destacar los puntos fuertes y debilidades de cada uno en distintos escenarios. Organización de la tesis En el Capítulo I se presentan las bases teóricas sobre las que se sustentan estos algoritmos. Se empieza por los conceptos básicos necesarios para entender su III

8 funcionamiento, empezando por variables aleatorias y funciones de distribución de probabilidad. Se continúa con el teorema de Bayes, que constituye una parte fundamental en la derivación matemática de estos filtros. Así mismo se presenta la teoría sobre estimación de parámetros. En el Capítulo II se desarrolla el concepto de modelos de espacio de estados, necesarios para la implementación de los algoritmos, y se presentan los modelos dinámicos mas empleados en la descripción de trayectorias En el Capítulo III se exponen los filtros Kalman Lineal, Kalman extendido, UKF, e IMM. Se muestra su descripción y ecuaciones, así como las matemáticas detrás de ellos. También se presentan sus ventajas y desventajas teóricas. Además se introduce el concepto de predicción, y los diferentes tipos de ella que se pueden realizar. En el Capítulo IV se describen la implementación y velocidad de ejecución de los algoritmos utilizados, junto con la obtención de los datos de entrada. Así mismo, se presentan los resultados obtenidos al aplicar cada uno de los filtros a los diferentes tipos de trayectorias. Por último se muestran las tablas comparativas de su desempeño. En la última sección se muestran las conclusiones alcanzadas por medio de la elaboración de esta investigación, así como el trabajo futuro. IV

9 Capítulo I. Antecedentes Introducción La mayoría de nosotros tiene alguna noción de lo que significa un suceso aleatorio, o la probabilidad de que algún evento en un espacio muestral ocurra. En este capítulo trataremos las nociones básicas de la teoría de probabilidad y estadística que nos permitirán mas adelante comprender el funcionamiento de los diversos filtros que se estudiarán en esta tesis. Nociones básicas La probabilidad es la rama de las matemáticas que estudia los posibles resultados de algún evento, junto con su veracidad y distribuciones. En el uso común, la palabra probabilidad es usada para dar a entender la posibilidad de que un evento, o un conjunto de eventos ocurra. El espacio muestral se define como el conjunto de todos los resultados posibles del experimento. Generalmente se designa a este conjunto como S. Por ejemplo, el espacio muestral que se obtendría de realizar el experimento de lanzar una moneda dos veces sería S = { aa, as, sa, ss} donde a equivale a obtener un águila, mientras que s sería obtener como resultado un sol. Otra noción básica es el concepto de evento. Un evento A respecto a un espacio muestral S, asociado con un experimento, es simplemente un conjunto de resultados posibles. En la terminología de conjuntos, un evento es un subconjunto del espacio muestral S, y se dice que ha ocurrido si el resultado obtenido es uno de los elementos de este conjunto. Un ejemplo de evento, tomando de nuevo el experimento de lanzar una moneda, es A = { aa, sa} Supóngase que el experimento se repite n veces, y sea A un evento asociado con el mismo. Sea n A el número de veces que el evento A ocurrió en las n repeticiones. Entonces, f n n A A = [.]

10 es llamada frecuencia relativa del evento A en las n repeticiones del experimento. Cuando el número de repeticiones en un experimento se acerca a infinito, se puede considerar a la frecuencia relativa como la probabilidad que tiene dicho evento de ocurrir. En la práctica, la frecuencia relativa es utilizada para asignar las probabilidades a ciertos eventos. Este hecho es de gran importancia en la mayoría de los sistemas utilizados en la vida real. Formalmente, la probabilidad de un evento es un número que satisface las siguientes propiedades:. No es negativo PA ( ) 0 A [.2] 2. Es la unidad para el espacio muestral 3. Es cero para el conjunto vacío PS ( ) = [.3] P( ) = 0 [.4] 4. Es aditivo sobre la unión de eventos mutuamente excluyentes, es decir si los eventos A y B no tienen elementos en común entonces la probabilidad de su unión es Esto puede ser extendido de la siguiente forma. Si A B = [.5] P( A B) = P( A) + P( B) [.6] entonces n Ai = [.7] i= n n P Ai = P( Ai) [.8] i= i= 2

11 Lo anterior resulta particularmente útil cuando un experimento tiene un número infinito de resultados. Este punto es fundamental en la definición de las variables aleatorias con valores continuos. 5. Si la probabilidad de dos resultados es independiente, es decir, el resultado de uno no afecta al otro, entonces la probabilidad de que ambos ocurran es el producto de sus probabilidades individuales p( A B) = p( A) p( B) [.9] Por ejemplo, si la probabilidad de obtener un águila en un lanzamiento de una moneda es de /2, entonces la probabilidad de ver un águila en dos lanzamientos realizados al mismo tiempo es de /4. Claramente el resultado de cada lanzamiento no afecta el resultado del siguiente. Teorema de Bayes Un concepto importante es el de probabilidad condicional. Supongamos que lanzamos tres monedas con el objetivo de obtener al menos dos lanzamientos que resulten en un águila. Inicialmente, la probabilidad de obtenerlas es ½. Después de lanzar la primera moneda, la probabilidad de obtener las dos águilas cambia. Si la primera moneda resulta en un águila, entonces la probabilidad es ahora de ¾. Por medio de la probabilidad condicional es posible realizar un cálculo de la probabilidad de que ocurra un evento, tomando en cuenta información de eventos pasados. La probabilidad condicional es la probabilidad de un evento dado que algún otro ha ocurrido, y está definida como p( A B) pab ( ) = [.0] pb ( ) La probabilidad condicional es una manera de describir la influencia de un evento sobre otro y es uno de los conceptos más importantes que utilizaremos en este trabajo, puesto que a través de ella se formula el teorema de Bayes. El teorema de Bayes, también llamado Ley de Probabilidad Inversa, es la ley matemática fundamental en el proceso de inferencia estadística. La inferencia estadística consiste en determinar que nivel de confianza podemos tener en una conclusión, basándonos en la evidencia disponible. Para su definición requerimos presentar el concepto de partición. Decimos que los eventos B, B2,, B n representan una partición del espacio muestral S si 3

12 n B i i= n i = i= P B i ) = B S ( > 0 Si, B2 Bn forman una partición de S, entonces para cualquier evento A B,..., PA ( ) = PAB ( ) PB ( ) + PAB ( ) PB ( ) + + PAB ( ) PB ( ) [.] 2 2 n n Sean B, B2,..., Bn una partición del espacio muestral S, y A un evento asociado a S. Entonces aplicando la definición de probabilidad condicional, podemos escribir: PB ( A) = i n PAB ( ) PB ( ) j= i PAB ( ) PB ( ) j i j [.2] Este resultado se conoce como teorema de Bayes. Prueba. Para cada i PB ( i A) PA ( Bi) PB ( i) PB ( i A) = = PA ( ) PA ( ) y dado que, B2 Bn forman una partición del espacio muestral, se tiene B,..., n PA ( ) = PAB ( j) PB ( j) j= Lo que completa el resultado. Las probabilidades P( B i ), i =,2,, n son llamadas las probabilidades a priori, y las P( B i A), i =,2,, n son llamadas probabilidades a posteriori. Variables aleatorias Mucho del trabajo realizado en la ciencia asume un mundo determinístico, es decir un mundo en el que un proceso o experimento repetido bajo condiciones idénticas 4

13 debería arrojar siempre el mismo resultado. Sin embargo, con el paso del tiempo y el desarrollo de la tecnología, se ha vuelto evidente que el mismo experimento, realizado bajo condiciones idénticas, no resulta exactamente igual en cada ensayo. Esta variabilidad de resultados observados es descrita por medio de la teoría de probabilidad y variables aleatorias. El resultado de un experimento no tiene que ser necesariamente un número, por ejemplo, en el lanzamiento de una moneda se puede obtener águila o sol. En muchas ocasiones por motivos prácticos debemos representar los resultados por medio de números, es decir, deseamos asignar un número real x a cada uno de los elementos s del espacio muestral S, Una función X que asigna a cada uno de los elementos s en el espacio muestral S, un número real X(s), se llama variable aleatoria, y el valor que toma es llamado su realización. Si el número de valores posibles de X es finito o infinito numerable, llamamos a X una variable aleatoria discreta. Si X es una variable aleatoria discreta, se puede asociar a cada uno de los resultados x i un número p ( xi ) = P( X = xi ), llamado probabilidad de x i. Los números p ( x i ) i=,2, deben satisfacer las condiciones siguientes: px ( i ) 0 [.3] px ( i ) = [.4] i= En muchas ocasiones estamos interesados en analizar las estadísticas de un fenómeno en el que la variable de interés puede tomar un número infinito de valores dentro de un intervalo, tales como el valor de un voltaje eléctrico, o el movimiento de un usuario. En este caso es necesario utilizar el concepto de variable aleatoria continua, en el cual se reemplaza la función de probabilidad p, que se encuentra definida sólo para los valores discretos x, x2, xn, por una función f definida para todos los valores de x en un intervalo. Formalmente, X es una variable aleatoria continua, si existe una función f, llamada función de densidad de probabilidad fdp de X que satisface las siguientes condiciones: f( x) 0 x [.5] f( x) 0 [.6] Para cualquier a,b tal que < < b < a, ( a X b) = b P f ( x) dx [.7] a 5

14 El evento x = a, para una variable aleatoria continua, tiene probabilidad cero, aunque no puede considerarse como un evento imposible, dado que sólo se obtiene un valor de probabilidad cuando se tiene definido un intervalo. Cabe destacar que aunque nos referimos a X con el término variable aleatoria, no debe considerarse como una variable, sino como una función. Sea X una variable aleatoria discreta o continua. Definimos F, la función de distribución de la variable aleatoria X, como F( x) = P( X x). Es calculada de acuerdo a Si X es una variable aleatoria discreta, F ( x) = p( x j ) Si X es una variable aleatoria continua con fdp f, F ( x) = f ( s) ds Esta función representa la probabilidad acumulada de la variable aleatoria X para todos los eventos hasta x, incluyéndolo. Algunas propiedades importantes de la misma son: F ( x) 0 si x F ( x) si x F ( x) es una función no decreciente de x La función de distribución para la variable aleatoria X puede ser utilizada para evaluar la probabilidad de eventos acerca de X. En general, es recomendable utilizar la segunda formulación, puesto que es apropiada tanto para variables aleatorias continuas como discretas. j x Valor esperado y varianza Frecuentemente nos encontramos con problemas que requieren no solamente de la probabilidad de que la variable aleatoria X se encuentre en cierto intervalo, sino de la obtención de un valor promedio o valor esperado. Por ejemplo, si apostamos 000 pesos a la ocurrencia de cierto resultado, lo que nos preguntaríamos es cuanto podríamos esperar como ganancia en promedio, y no la probabilidad que existe de obtener un resultado favorable. Intuitivamente podemos ver que p i N, donde pi es la probabilidad de un evento y N es el número de repeticiones del experimento, es una aproximación al número de veces que esperamos que el evento ocurra. Ahora, si multiplicamos este valor por el valor numérico de la variable, es decir p inxi, obtendríamos el valor numérico de la misma. De esta forma para obtener el promedio calcularíamos ( p N) x + ( p N) x + + ( p N) x N 2 2 N N x = [.8] 6

15 Esta noción nos lleva al concepto de valor esperado de una variable aleatoria. Formalmente, Si X es una variable aleatoria discreta con función de probabilidad p X (x), el valor esperado de H(X), denotado por E [ H (X )] es definido como [ ] E H( X) = H( x) p ( x) [.9] Mientras que si X es una variable aleatoria continua con función de densidad de probabilidad f X (x), el valor esperado de H (X ) se define como [ ] X E H( X) = H( x) f ( x) dx [.20] El valor esperado de X es llamado la media o el valor promedio de X y es denotado por µ X. Gráficamente, el valor esperado de una variable aleatoria se encuentra en el centro del área de su función de probabilidad o función de densidad de probabilidad, dependiendo de si es una variable aleatoria discreta o continua. En la Figura se puede apreciar lo anterior. X Figura. Valor esperado El valor esperado, junto con la desviación estándar σ son los dos parámetros más importantes utilizados para resumir las propiedades de una variable aleatoria X. 2 σ es conocida como la varianza de X, y es definida por 2 2 σ = Var[ X ] = E[( X µ ) ] [.2] 2 Así, para una variable aleatoria discreta X, su varianza σ x está dada por σ = Var[ X ] = ( x µ ) p( xi) [.22] 2 2 i i 7

16 Mientras que si se trata de una variable aleatoria continua, su varianza está dada por 2 2 σ = Var[ X ] = ( x µ ) f ( x) dx [.23] La razón por la que la media o valor esperado es tan importante es intuitivamente clara. Por ejemplo, si X es una variable aleatoria discreta que describe cuanto va a ganar una persona en cada resultado del espacio muestral, entonces el valor esperado es el promedio pesado de lo que espera ganar. La media puede verse como un resumen de lo que se espera de la variable aleatoria. La desviación estándar, σ no tiene un significado tan intuitivo. La desviación estándar es una unidad natural para medir la desviación de una variable aleatoria de su media. Por ejemplo, supóngase que X representa la duración de una bombilla que se recibe de un fabricante y que su media µ =000 horas. Esto podría significar que se espera que la mayor parte de las bombillas dure entre 900 y 00 horas. Pero también podría significar que las bombillas que se entregan son de dos tipos diferentes: alrededor de la mitad son de muy alta calidad y con duración de casi 300 horas, mientras que la otra mitad son de muy mala calidad y tienen una duración de 700 horas aproximadamente. Obviamente existe la necesidad de presentar una medida que permita distinguir entre estas situaciones, para lo cual se utiliza la varianza y la desviación estandar. Algunas propiedades de la varianza son las siguientes: Si C es una constante y X una variable aleatoria, 2 2 σ ( X + C) = σ ( X ), es decir la suma de una constante a una variable aleatoria, no afecta su varianza σ ( CX ) = C σ ( X ). La varianza de la multiplicación de una variable aleatoria por una constante, se convierte en la varianza de la variable aleatoria, multiplicada por el cuadrado de la constante. Si X, X 2, X n son variables aleatorias independientes, entonces n n 2 2 X i = σ i [.24] i= i= σ ( ) ( X ) es decir, la varianza de la sumatoria de un conjunto de variables aleatorias independientes es igual a la sumatoria de las varianzas individuales. 8

17 Distribución normal La distribución de probabilidad Normal, también llamada Gaussiana, es muy popular en el modelado de sistemas dado que muchos procesos aleatorios que ocurren en la naturaleza están distribuidos de forma normal, o muy cercano a ello. En este tipo de distribución los datos se agrupan alrededor de un punto denominado media, mientras que la amplitud de la misma está dada por la varianza. La Figura 2 muestra gráficamente este tipo de variables aleatorias. La variable aleatoria X en el intervalo < x < tiene una distribución normal o gaussiana si su función de densidad de probabilidad es de la forma x µ F( x) = exp 2πσ 2 σ 2 [.25] Figura 2. Distribución Gaussiana 2 Para referirnos a este tipo de distribución utilizaremos N ( µ, σ ). La variable aleatoria normal estándar es aquella en la que los parámetros µ = 0, y σ =. Así la función de densidad de una variable aleatoria distribuida de acuerdo a una normal estándar está definida por [ ] 2 F( x) = exp 2π 2 x [.26] Mientras que la función de distribución de probabilidad f está dada por 2 x exp t 2 f ( x) = dt [.27] 2π La distribución normal estándar es importante porque toda distribución normal puede ser calculad en términos de ella. Así, si X esta distribuida normalmente con parámetros µ y σ, entonces 9

18 x µ FX ( x) = f σ [.28] A continuación mencionaremos algunas de las propiedades de las variables aleatorias distribuidas normalmente. Si X es una variable aleatoria con distribución normal y parámetros µ y σ, entonces 2 EX [ ] = µ y VarX [ ] = σ [.29] Si X N( µ, σ), N( µ 2, σ 2), N( µ n, σ n ), entonces Y = X, X 2, X n está distribuida normalmente con media µ + µ µ n y varianza σ + σ σ n., X 2, X n son n variables aleatorias independientes con distribuciones Cualquier combinación lineal de un proceso o variable aleatoria distribuida normalmente es también un proceso aleatorio normalmente distribuido. En particular, si 2 X ~ N( µ, σ ) y Y = ax + b, entonces Y ~ N( aµ + b, a 2 σ 2 ), y la función de densidad de probabilidad para Y está dada por 2 y ( aµ + b) FY ( y) = exp πa σ 2 a σ [.30] Procesos de Marov. Una familia de variables aleatorias { X t), t T} ( es llamada un proceso estocástico. Así, para cada t T donde T es el conjunto índice del proceso, X (t) es una variable aleatoria. A un elemento de T se le refiere usualmente como un parámetro de tiempo, y generalmente t se refiere al tiempo en que la variable aleatoria ocurre, aunque tal situación no es parte de la definición. El espacio de estados del proceso es el conjunto de los valores posibles que las variables aleatorias X (t) pueden asumir. Cada uno de los valores de las variables aleatorias es llamado un estado del proceso. Los procesos estocásticos están clasificados de acuerdo a su conjunto índice y el T = 0,,2, o T = { 0, ±, ± 2, } se dice que es un proceso con T = t : t o espacio de estados. Si { } parámetro discreto y usualmente es denotado por { n } = { t : t 0} X. Si { } T se dice que es un proceso con parámetro continuo. El espacio de estados es clasificado como discreto si es finito o numerable, y es llamado continuo si consiste de un intervalo de los números reales. 0

19 Para un proceso estocástico X (t), para cada t, X (t) es una variable aleatoria, y por ende una función desde el n-ésimo espacio muestral S, hacia el espacio de estados. Para cualquier S X ( t)( s), t T llamado la realización de X en s, el cual puede verse como el recorrido de la función. s, existe un conjunto correspondiente { } Un concepto que será ampliamente utilizado a lo largo del presente trabajo son los procesos de Marov, los cuales están definidos por la propiedad de Marov [ ] [ ] p x( t) x( τ), τ t = p x( t) x( t ), t > t [.3] La ecuación anterior intuitivamente nos dice que los eventos ocurridos en el pasado hasta cualquier t están caracterizados por completo por el valor del proceso en el tiempo t, es decir, que el futuro es independiente de el pasado si se conoce el presente. Un proceso estocástico, también llamado secuencia aleatoria, es un proceso de Marov si [ ] [ ] esto es, si cumple con la propiedad de Marov. p x( ) X = p x( ) x( j), > j [.32] t Una cadena de Marov es un caso especial de secuencia de Marov, en la cual el espacio de estados es discreto y finito { } x( ) x, i =,, n [.33] i Una secuencia de Marov realiza transiciones de estado en los tiempos t n, posiblemente hacia el mismo estado, y es posible caracterizarla por completo por medio de las probabilidades de transición π ij { } π = P x( ) = x x( ) = x i, j =,2, n [.34] ij j i junto con las probabilidades iniciales. Las π ij anteriores nos indican lo probabilidad que existe de cambiar de un estado i a un estado j. Generalmente en las cadenas de Marov las probabilidades de transición son independientes del tiempo en el cual se encuentra, en este caso se dice que la cadena tiene probabilidad de transición estacionaria, aunque en ocasiones es posible utilizar probabilidades que cambian en el tiempo. Definimos ahora el vector µ (), el cual describe la distribución de probabilidades del estado de la cadena y está dado por

20 µ ( ) = [ µ ( ), µ 2( ), µ n( )]' [.35] donde las componentes son las probabilidades de la cadena de encontrarse en el estado i, es decir µ ( ) = P x( ) = x i { } i La evolución en el tiempo del vector µ () anterior está dada por i µ ( + ) = π µ ( ) i, j =, n [.36] i ji j j= n Las probabilidades de transiciónπ ij se pueden resumir por medio de: π00 π0 π02 π0 π π 2 Π= πi0 πi πi2 [.37] La cual es llamada matriz de transición de la cadena de Marov. Así, la evolución en el tiempo puede ser escrita en forma vectorial como µ ( + ) =Π ' µ ( ) [.38] Propiedades de las cadenas de Marov. Sea { X (n)} una cadena de Marov y i j significando que los estados i y j se comunican. Entonces la relación i i Para cada estado i Si i j, entonces j i Si i j y j, entonces i. i j es una relación de equivalencia. Esto es, Debido a esto, los estados de una cadena de Marov se pueden particionar en clases de equivalencia de estados tales que dos estados i y j están en la misma clase si y solo si i j. Una cadena de Marov es irreducibe si y solo si existe exactamente una clase de equivalencia. 2

21 Si el estado i tiene un periodo d(i), entonces existe un entero N dependiente de i tal que para todos los enteros n N π ( nd( i)) > 0 [.39] ii Esto quiere decir, que siempre es posible regresar a un estado i después de un múltiplo lo suficientemente grande del periodo de la cadena. Si π ( m) > 0, entonces π ( m + nd( i)) > 0 para cualquier n lo suficientemente grande. ii ji (n) Para cada estado i de una cadena de Marov definimos fi como la probabilidad de el primer retorno al estado i ocurra n transiciones después de dejar i. [, para,2, i ] f = P X = i X i = n X = [.40] ( n) i n 0 La probabilidad de regresar al estado i está dada por f i = fi ( n). Si f i <, se dice que n= es un estado transitorio. Si f = se dice que es un estado recurrente. i Otra forma de expresar lo anterior por medio de las probabilidades de transición es: Un estado i es recurrente si y solo si El estado i es transitorio si y solo si π ii( n) = [.4] n= π ii( n) < [.42] n= Inferencia estadística. En la mayoría de los análisis matemáticos se consideran casos idealizados en los que se asume que se conoce exactamente la forma de la función de distribución de probabilidad y los valores de sus parámetros, de cada variable aleatoria que se estudia. En la mayoría de los casos prácticos, no tenemos conocimiento sobre ninguno de los dos. Por ello es necesario que la información acerca de una variable aleatoria se base en un conjunto de valores observados. La inferencia estadística está basada en la obtención de una muestra de la población de todos los elementos que tomamos en consideración. En general requerimos obtener una muestra x, x2, x de valores tomados de un conjunto de todos los posibles valores de una n 3

22 variable aleatoria X. Para que la muestra tenga las propiedades matemáticas necesarias para utilizarla en alguna aplicación, debe ser tomada de forma que sea una muestra aleatoria. La obtención de una muestra aleatoria se puede ver como un procedimiento en el cual se realizan una serie de observaciones de forma tal que Cada valor observado o valor seleccionado es independiente de los otros En cada paso, el valor seleccionado tiene la misma probabilidad de ser escogido que cualquier otro elemento en la población. Esto puede ser conceptualizado como una secuencia X, X 2, X n de variables aleatorias independientes, cada una con la misma distribución de probabilidad que X. Así, definimos una muestra aleatoria de tamaño n como una secuencia de variables aleatorias idénticamente distribuidas X, X 2, X n. Una vez que se ha tomado una muestra aleatoria, indicamos la muestra por medio de x, x2, x n. De esta forma tomamos en cuenta el hecho de que los valores de dos diferentes muestras aleatorias de tamaño n de la misma población son generalmente diferentes. Por ejemplo, una muestra aleatoria de la medición de cinco tiempos podría ser.2, 0.85, 0.35, 0.87, 0.98 segundos, mientras que en otra muestra aleatoria podríamos obtener 0.76, 0.45, 0.92,.8, 0.54 segundos. Lo anterior se debe a que generalmente existe un poco de aleatoriedad entre los valores de dos diferentes muestras. Los problemas fundamentales en la teoría de estimación o inferencia estadística, se pueden resumir como: Dados los valores de las variables aleatorias x, x2, xn tomados de una población de una variable aleatoria X, cómo estimar los valores de los parámetros de X tales 2 como la media µ, la varianza σ o la desviación estándarσ. Como realizar juicios acerca de la precisión de esos estimados Si se estima un parámetro θ de una variable aleatoria X a través de otra variable aleatoria θˆ, llamada estimador de θ, cuales son las propiedades que debe tener para resultar útil. El problema de estimar un parámetro x consiste en dadas un conjunto de mediciones que se comportan de acuerdo a una función h en el tiempo j de la variable aleatoria X x j, [ ] x = h j, X, w( j) i, j =, [.43] j y realizadas en presencia de perturbaciones modeladas por medio de la función w ( j), encontrar una función θˆ de las observaciones 4

23 ˆ θ( ) ˆ θ, X j [.44] donde las observaciones son denotadas como X j { xj} j= [.45] que se acerque al verdadero valor de X. La función ˆ θ ( ) es llamada estimador, mientras que su valor es conocido como estimado. Esos términos, aunque no son iguales, pueden ser generalmente intercambiados. Los dos estimadores mas comunes son el de la media de la muestra, también conocido como media aritmética, X, definida por X n X i n i = = [.46] y la varianza de la muestra 2 S, definida por medio de [.47] n 2 S = n i= X X ( ) 2 i Donde X es un estimador del valor esperado µ = E[X ], y 2 σ = Var[ X ]. 2 S lo es de la varianza Sean X, X 2, X n una muestra aleatoria de tamaño n de una población determinada por la variable aleatoria X con media finita µ = E[X ] y varianza finita 2 2 σ = Var[ X ]. Sean X y S las utilizadas en la definición anterior. Entonces E [X ] = µ 2 E [ S 2 ] = σ 2 σ Var[ X ] = n Para n lo suficientemente grande, la variable aleatoria X µ Z = tiene aproximadamente una distribución normal estándar. σ n Si X tiene una distribución normal, entonces la variable aleatoria 5

24 Y X µ = tiene una distribución t-studen con n- grados de libertad. S n En general, el término parámetro es utilizado para designar una cantidad invariante en el tiempo. Es posible estimar parámetros que cambian con el tiempo pero su variación debe ser lenta comparada con el estado de las variables del sistema. Las dos características principales de un estimador son el sesgo y la consistencia. Un estimador θˆ de un parámetro θ es insesgado si su valor esperado es igual al valor del parámetro que estima, es decir E [ ˆ] θ = θ, lo cual, intuitivamente significa que los valores estimados del parámetro θ se agrupan alrededor de θ. Un estimador θˆ con la propiedad para cada ε > 0, lim P[ ˆ θ θ < ε ] = n [.48] es un estimador consistente de θ. También se dice que θˆ converge en probabilidad a θ. Un estimador que carece de esta propiedad, es decir un estimador inconsistente, se puede considerar como poco útil en la práctica. Supongamos que se toman muestras aleatorias, cada una de tamaño n, y se calculan los valores correspondientes de la media muestral x, x2, x. Esos números se agruparían alrededor del valor de µ, dado que X es insesgado. La varianza de X es una medida de que tan cerca están de µ. Si se comparan dos estimadores insesgados ˆ θ y ˆ θ 2, se considera como el más eficiente el que presente la menor varianza. Decimos que un estimador θˆ es un estimador insesgado de mínima varianza de θ si Var [ ˆ] θ < Var[ ˆ θ], donde ˆ θ es cualquier otro estimador insesgado de θ. Sea X, X 2, X n una muestra aleatoria de una población determinada por X. Si X esta distribuida normalmente con media µ 2 y varianza σ, entonces los estimadores X y 2 S son insesgados, consistentes y de mínima varianza de los parámetros µ y σ 2 respectivamente. Aunque los estimadores insesgados son deseables en una gran cantidad de aspectos, no siempre existe uno para una estimación en particular. En tales casos es posible utilizar un estimador consistente θˆ con error medio cuadrático mínimo. El error medio cuadrático está definido por E[( ˆ θ θ) ] Var[ ˆ θ] ( E[ ˆ θ] θ) 2 2 = + [.49] 6

25 El término E [ ˆ] θ θ es llamada el sesgo de θˆ, y es cero para estimadores insesgados. Es posible que un estimador sesgado θˆ posea un error cuadrático medio menor que cualquier estimador insesgado, siempre y cuando la varianza Var [θˆ ] sea lo suficientemente pequeña. Existen principalmente dos modelos utilizados para la estimación de un parámetro que no cambia con el tiempo:. No-aleatorio: Existe un único valor x 0. Este enfoque es también llamado enfoque no-bayesiano o enfoque de Fisher. 2. Aleatorio: El parámetro es una variable aleatoria con una fdp a priori p (θ ) y una realización de θ que ocurre de acuerdo a p (θ ), además este valor permanece constante durante todo el proceso de mediciones. Este método de estimación es también es conocido como enfoque Bayesiano. En el enfoque Bayesiano, se empieza con una fdp a priori del parámetro del cual se quiere obtener su fdp a posteriori usando el teorema de Bayes pz ( θ ) p( θ ) p( θ Z) = = p( Z θ) p( θ) [.50] pz ( ) c Donde c es una constante de normalización que no depende de θ, y Z es el conjunto de mediciones. La fdp a posteriori puede utilizarse de distintas maneras para estimar el valor de θ. En contraste con lo anterior, en el enfoque no-bayesiano no existe una fdp asociada con el parámetro y debido a esto no es posible definir una fdp a posterior para ella. En este caso, se tiene como una medida de que tan probable es el valor de un parámetro dadas las observaciones obtenidas, la fdp de las mediciones condicionada en el parámetro, llamada función de verosimilitud Λ ( θ ) = pz ( θ ) [.5] Z datos. La función de verosimilitud sirve como una medida de la evidencia existente de los Estimador de máxima verosimilitud Un método común para estimar el valor de parámetros no aleatorios es el método de máxima verosimilitud (MLE), el cual está basado en el enfoque de Fisher. La idea detrás de 7

26 este tipo de estimador es escoger el valor o los valores de los parámetros que hagan los valores observados de las muestras más probables, es decir maximizar la función de verosimilitud ˆ ML θ ( Z) = arg max Λ ( θ) = arg max p( Z θ) [.52] θ Z Donde θ es una constante desconocida, mientras que ˆML θ ( Z), la cual es una función del conjunto de observaciones Z, es una variable aleatoria. El MLE es la solución de la ecuación de verosimilitud θ dλz ( θ ) dp( Z θ ) = = 0 [.53] dθ dθ Si la distribución de probabilidad de la variable aleatoria de interés involucra varios parámetros θ, θ2, θ, entonces para encontrar los valores que maximizan la función de verosimilitud se debe resolver el sistema de ecuaciones dλz( θ) dλz( θ2) dλz( θ) = 0, = 0,, = 0 [.54] dθ dθ dθ 2 y así encontrar los estimados de máxima verosimilitud de los parámetros. Se debe tener cuidado al resolver este sistema de ecuaciones, puesto que es posible encontrar mínimos locales. En muchos casos es mas conveniente trabajar con el logaritmo de la función de verosimilitud, definido como ln( Λ Z ) [.55] dado que es una función creciente monótona. Al utilizar esta función de verosimilitud, las ecuaciones anteriores se convierten en dln( ΛZ( θ)) dln( ΛZ( θ2)) d ln( ΛZ( θ)) = 0, = 0,, = 0 [.56] dθ dθ dθ 2 Estimador Máximo a Posteriori Otro estimador para un parámetro aleatorio es el llamado máximo a posteriori (MAP), basado en el enfoque Bayesiano. De forma similar al estimador de máxima verosimilitud, el MAP encuentra un estimado de un parámetro de una variable aleatoria, a la cual se tiene acceso a través de observaciones. En contraste con el MLE, el parámetro a estimar no es una variable, sino que está modelado a través de una función de distribución 8

27 de probabilidad a priori, por medio de la cual se obtiene una distribución de probabilidad a posteriori. Así, el MAP se deriva de la maximización de la fdp a posteriori [ ] ˆ θ MAP ( Z) = argmax p( θ Z) = argmax p( Z θ) p( θ) [.57] θ El estimado MAP, que depende de las observaciones Z y de la realización de θ, también es una variable aleatoria. θ 9

28 Capítulo II. Modelos Dinámicos Introducción La clave para un seguimiento de objetivos exitoso se encuentra en la extracción óptima del estado del mismo a partir de la información proveniente de las observaciones reportadas. La mayoría de las técnicas para el seguimiento de objetos están basadas en modelos, puesto que un algoritmo de seguimiento basado en ellos presenta un rendimiento muy superior al de uno que no los utiliza. Un buen modelo del objetivo facilita la extracción de la información a tal grado que se puede afirmar que los resultados obtenidos al utilizarlo pueden ser aún mejores que si se tuvieran disponibles una gran cantidad de datos crudos. En este capítulo se presentan algunos de los modelos matemáticos de movimiento que han sido desarrollados en las últimas décadas, junto con las bases teóricas necesarias para su derivación y aplicación. Específicamente se tratarán los modelos Aceleración continua con ruido blanco Aceleración como proceso de Wiener Modelos basados en polinomios Modelo de giros coordinados Además, se enfatizan las ideas principales y suposiciones de estos modelos dinámicos, así como las condiciones de operación de cada uno de ellos. Esto nos llevará no solamente a entender como trabajan, sino también a conocer sus ventajas y desventajas. Aunque los modelos presentados solamente consideran el comportamiento temporal del objetivo, sin tomar en cuenta sus características espaciales, no existe una limitación para desarrollar o aplicar un modelo que describa tanto la evolución temporal como las características espaciales de un objetivo. Características espaciales y espectrales. Hasta ahora solo se habían tomado en cuenta las características espaciales de las señales muestreadas. La magnitud de la varianza de una señal nos pueda dar una idea de cuanto ruido posee la señal analizada, sin embargo no nos dice nada acerca de la tasa de ruido existente en relación con el tiempo en el que se muestrea la señal. Una característica importante de una señal aleatoria es su autocorrelacion, es decir su correlación consigo misma sobre el tiempo. La autocorrelación R de una señal aleatoria X 20

29 X () t se define como el valor esperado del muestreo en el tiempo t multiplicado por el muestreo en el tiempo de muestreo siguiente t 2 R ( t, t ) = E[ X( t ) X( t )] [2.] X 2 2 Si el proceso es estacionario, es decir su densidad de probabilidad es invariante en el tiempo, entonces la ecuación [2.] depende únicamente de la diferencia τ = t t2. En este caso, encontrado comúnmente en muchos sistemas, la autocorrelación se puede reescribir como RX ( τ ) = EXtXt [ ( ) ( + τ )] [2.2] La autocorrelación es una función del tiempo, por lo que posee una interpretación espectral en el dominio de la frecuencia. Para un proceso estacionario, existe una importante relación temporal-espacial conocida como la relación Wiener-Khinchine jωτ S ( jω) =I [ R ( τ)] = R ( τ) e dτ [2.3] X X X Donde I representa la transformada de Fourier de la autocorrelación de la variable X () t, y ω indica el número de ciclos por segundo. La función SX ( jω ) es llamada la densidad del poder espectral de la señal aleatoria. Esta relación conjunta las representaciones de tiempo y espectro de frecuencia de la señal analizada. Ruido Blanco. Un caso importante encontrado en una señal aleatoria X ( t ) es en el que la función de autocorrelación es un delta de dirac δ ( τ ) que tiene valor cero en todo punto excepto cuando τ = 0. R X para alguna constante de magnitud ψ. ψ, si τ = 0 ( τ ) = [2.4] 0 en otro caso Al graficar esto se puede notar fácilmente que la autocorrelación es un pico, y por ende su transformada de Fourier (densidad de poder espectral) resulta en un espectro de frecuencia constante (Figura 3). 2

30 Figura 3. Espectro del ruido Blanco Un proceso que cumple con la definición anterior es conocido como ruido blanco. Puede considerarse que el ruido blanco presenta poder en todas las frecuencias del espectro, y es completamente no-correlacionado consigo mismo en cualquier momento excepto en el presente, es decir cuando τ =0. Las señales de ruido blanco son consideradas independientes, es decir una muestra de la señal tomada en un tiempo t es completamente independiente, o no-correlacionada, respecto a otra muestra tomada en un tiempo t distinto. 2 En la práctica es imposible que un sistema presente ruido blanco dado que no es posible tener energía infinita a través de un espectro infinito, sin embargo esta formulación matemática idealizada constituye un marco idóneo para el diseño y análisis. Generalmente las señales aleatorias son modeladas como ruido blanco filtrado (Figura 4) en las cual se limita el ancho de banda de la descripción idealizada, para obtener un ruido coloreado, poco correlacionado en el dominio del tiempo. Figura 4. Ruido Blanco filtrado Proceso de Wiener Algunos de los modelos presentados en este capítulo corresponden a un proceso de Wiener, por lo que es conveniente describirlo brevemente. Un proceso de Wiener es un proceso estocástico Gaussiano con incrementos independientes. Para cada número positivo t, se denota el valor del proceso en el tiempo t por W. Entonces el proceso es caracterizado por las condiciones: t 22

31 . Si 0 < s< t, entonces se distribuye normalmente con media cero y varianza t s W W N t s t 2 s (0, σ ( )) [2.5] 2. Si 0 s t u v, es decir los intervalos [ st, ] y [ uv, ] no se traslapan, W W y W W son variables aleatorias independientes. t s v u Modelos de espacio de estados El objetivo principal del seguimiento de un objeto en movimiento es estimar su trayectoria. Aunque los objetivos nunca son realmente un punto en el espacio, y la información acerca e su orientación es importante para el seguimiento, un objetivo es tratado usualmente como un punto sin forma en el espacio, especialmente en los modelos dinámicos. Un modelo dinámico, también llamado modelo de movimiento, describe la evolución del estado de un objetivo x con respecto al tiempo. Casi todos los métodos confiables de seguimiento de objetos están basados en modelos. Asumen que el movimiento del objetivo junto con sus observaciones puede ser representado de forma precisa por medio de algún modelo matemático conocido previamente. Los dos principales retos en el seguimiento de objetos son la incertidumbre del origen de las mediciones y la incertidumbre del movimiento del objetivo, por ello el modelo debe tomar en cuenta la aleatoriedad presente tanto en el movimiento real del objeto, como en las mediciones obtenidas a través de algún dispositivo. El tipo de modelo más utilizado es el modelo de espacio de estados. En general, un modelo de espacio de estados consiste en dos ecuaciones, las ecuaciones del sistema, y las ecuaciones de las observaciones. Las ecuaciones del sistema modelan la dinámica del estado de las variables, mientras que las ecuaciones correspondientes a las observaciones modelan el estado observado de las variables. Este modelo es descrito usualmente en la siguiente forma: donde ( ) x = + f x, u, v [2.6] ( ) z = h x + w [2.7] x es el vector de estado del sistema, en el tiempo t z es el conjunto de observaciones o mediciones, hasta el tiempo t 23

32 u es una entrada de control, en el tiempo t v es el ruido en el proceso observado w es el ruido presente en las mediciones f es una función que puede variar en el tiempo, con entradas vectoriales, que modela la forma en que el sistema evoluciona del tiempo - al tiempo. h es una función que puede variar en el tiempo, con entradas vectoriales, que modela la relación que existe entre las observaciones realizadas y el estado del sistema. Las dos ecuaciones anteriores son conocidas como modelo del proceso y modelo de mediciones, respectivamente, y son la base de prácticamente cualquier método de estimación, tal y como el filtro Kalman. Modelos de tiempo continuo La forma general del modelo de espacio de estados permite definir cualesquiera funciones f y h para describir la evolución del sistema junto con la relación de las mediciones con el estado del mismo, respectivamente. Para su utilización en los filtros que analizaremos en el presente trabajo de tesis es conveniente utilizar una formulación mas precisa de tales funciones a través de los modelos de tiempo continuo y los modelos de tiempo discreto. Un modelo de tiempo continuo es aquel en que el estado del sistema cambia de forma continua respecto al tiempo. Tales cambios son descritos por medio de las derivadas de las variables que resumen el estado del sistema, con respecto al tiempo. De esta forma, el modelo es representado a través de una o más ecuaciones diferenciales, a través de las cuales es posible obtener el valor de las variables que lo componen en cualquier tiempo en particular. La representación en espacio de estados de un sistema estocástico lineal de tiempo continuo es descrita como donde x () t = A() t x() t + B() t u() t + D() t v () t [2.8] x es el vector de estado U es el vector de entrada de control v es el ruido del proceso, también llamado ruido de la planta A es la matriz del sistema B es la matriz de ganancia de entrada D es la matriz de ganancia de ruido 24

33 La respuesta del sistema es el vector z, donde zt () = Ctxt () () + wt () [2.9] w es el ruido en las mediciones C es la matriz de mediciones La ecuación [2.8] representa la evolución del sistema en el tiempo, y es el equivalente de [2.6], mientras que [2.9] modela la evolución de las mediciones realizadas y corresponde a la ecuación [2.7]. Aunque no es un requisito en la formulación de los modelos de espacio de estados, en el caso de la estimación basada en el enfoque Bayesiano se requiere en general que las variables de ruido wt ( ) y vt ( ). Presenten una distribución gaussiana 2. Presenten media cero 3. Sean un proceso blanco 4. Sean mutuamente independientes Lo anterior debido a que el vector de estado del sistema debe resumir completamente el pasado, en un sentido probabilístico, a través de su función de densidad de probabilidad. Modelos de tiempo discreto En la mayoría de los sistemas reales las mediciones de las características que nos revelan el comportamiento del fenómeno que analizamos se realizan en instantes de tiempo discretos, por lo que un modelo en tiempo continuo como el presentado en la sección anterior no es adecuado. Para tales situaciones se emplea una formulación semejante a la de los modelos de tiempo continuo en la que las ecuaciones son discretizadas, es decir son transformadas a su equivalente discreto. En la representación de espacio de estados de sistemas de tiempo discreto, se asume que la entrada es constante a pedazos, esto es, ut () = ut ( ) t t< t + [2.0] Así, el estado en el tiempo de muestreo t+ puede ser escrito en términos de el estado t como x( t ) = F( t, t ) x( t ) + G( t, t ) u( t ) + v( t ) [2.]

34 Donde F es la matriz de transición del estado del sistema, G es la matriz de ganancia en tiempo discreto de la entrada de control, la cual se asume como constante sobre el periodo de muestreo, y v t ) es el ruido del proceso en tiempo discreto. ( Para los fines mencionados al inicio de esta sección es necesario convertir el modelo en tiempo continuo en uno de tiempo discreto, para lo cual se utiliza el proceso de discretización que mencionaremos a continuación. Para un sistema invariante en el tiempo definido en tiempo continuo y muestreado en tiempos arbitrarios, la matriz de transición en el tiempo discreto, denotada como F ( ), es igual a la exponencial de la diferencia de los tiempos por la matriz del sistema en tiempo continuo Ft t = Ft t = e F [2.2] ( ( ), ) ( ) t + t A + ( ) La ganancia de entrada del sistema en tiempo discreto es igual a la integral de la exponencial de t + menos un tiempo de muestreo τ, por la matriz de ganancia en tiempo continuo. El tiempo de muestreo τ se define como la diferencia entre el tiempo anterior y el actual, es decir t + t. t+ ( t+ ( ), ) τ A + = τ ( ) t Gt t e Bd G [2.3] Finalmente v, el ruido del proceso en tiempo discreto, se relaciona con el ruido en tiempo continuo por medio t+ ( t+ τ ) A ( ) = ( τ) τ ( ) t vt e Dv d v [2.4] donde D es la matriz de ganancia de ruido y v es una función de ruido, ambas en tiempo continuo. Con la suposición de media cero y ruido blanco en la función v ~ ( t ) que describe el ruido del sistema, se puede observar que Ev [()] = 0 Evv [()()'] j = Qδ () j [2.5] Donde δ j es la función delta de Kronecer, y Q es la matriz de covarianza del ruido en tiempo discreto v. Un sistema en el que las ecuaciones que modelan el sistema no cambian durante el tiempo que dura el proceso 26

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

1. Experimentos aleatorios

1. Experimentos aleatorios 1. Eperimentos aleatorios La eperimentación es útil porque si se supone que llevamos a cabo ciertos eperimentos bajo condiciones esencialmente idénticas se llegará a los mismos resultados. En estas circunstancias,

Más detalles

Repaso de conceptos de álgebra lineal

Repaso de conceptos de álgebra lineal MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso

Más detalles

1. La Distribución Normal

1. La Distribución Normal 1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

Estimación de Parámetros. Jhon Jairo Padilla A., PhD.

Estimación de Parámetros. Jhon Jairo Padilla A., PhD. Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: Estimación de Parámetros Prueba de Hipótesis Estimación de

Más detalles

Unidad II: Fundamentos de la teoría de probabilidad

Unidad II: Fundamentos de la teoría de probabilidad Unidad II: Fundamentos de la teoría de probabilidad 2.1 Teoría elemental de probabilidad El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos que se denominan aleatorios, cuya característica

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

DISTRIBUCIONES DE PROBABILIDAD

DISTRIBUCIONES DE PROBABILIDAD DISTRIBUCIONES DE PROBABILIDAD VARIABLE ALEATORIA Una variable x valuada numéricamente varía o cambia, dependiendo del resultado particular del experimento que se mida. Por ejemplo, suponga que se tira

Más detalles

Fundamentos de la Teoría de la Probabilidad. Ing. Eduardo Cruz Romero

Fundamentos de la Teoría de la Probabilidad. Ing. Eduardo Cruz Romero Fundamentos de la Teoría de la Probabilidad Ing. Eduardo Cruz Romero www.tics-tlapa.com Teoría elemental de la probabilidad (1/3) El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos

Más detalles

Teorema Central del Límite (1)

Teorema Central del Límite (1) Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

METODOS ESTADÍSTICOS

METODOS ESTADÍSTICOS METODOS ESTADÍSTICOS Introducción. Uno de los objetivos de la asignatura de Hidrología, es mostrar a los alumnos, las herramientas de cálculo utilizadas en Hidrología Aplicada para diseño de Obras Hidráulicas.

Más detalles

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1 . Estimación de la Media Germán Bassi 9 de septiembre de 00 Dada la variable aleatoria X, podemos estimar el valor esperado de la misma mediante la siguiente fórmula: µ X = X(i) = T X. Ambas representaciones

Más detalles

ENRIC RUIZ MORILLAS ESTADÍSTICA APLICADA A EXPERIMENTOS Y MEDICIONES

ENRIC RUIZ MORILLAS ESTADÍSTICA APLICADA A EXPERIMENTOS Y MEDICIONES ENRIC RUIZ MORILLAS ESTADÍSTICA APLICADA A EXPERIMENTOS Y MEDICIONES Índice 1. Experimento y medición...1 2. Frecuencia y probabilidad...3 3. Características teóricas de las variables aleatorias...25 4.

Más detalles

IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS

IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Sistema Un sistema

Más detalles

INDICE. Prólogo a la Segunda Edición

INDICE. Prólogo a la Segunda Edición INDICE Prólogo a la Segunda Edición XV Prefacio XVI Capitulo 1. Análisis de datos de Negocios 1 1.1. Definición de estadística de negocios 1 1.2. Estadística descriptiva r inferencia estadística 1 1.3.

Más detalles

Repaso de Probabilidad y Estadística

Repaso de Probabilidad y Estadística Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................

Más detalles

PFC: Localización de robots mediante filtro de Kalman

PFC: Localización de robots mediante filtro de Kalman 6.- FILTRO DE KALMAN 6.1.- MOTIVACIÓN Los sistemas de navegación se han convertido en un estándar, ya que se venden más y más, sobre todo con los coches nuevos. La mayoría de estos sistemas de navegación

Más detalles

Prof. Eliana Guzmán U. Semestre A-2015

Prof. Eliana Guzmán U. Semestre A-2015 Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos

Más detalles

ESTADISTICA INFERENCIAL DR. JORGE ACUÑA A.

ESTADISTICA INFERENCIAL DR. JORGE ACUÑA A. ESTADISTICA INFERENCIAL DR. JORGE ACUÑA A. 1 PROBABILIDAD Probabilidad de un evento es la posibilidad relativa de que este ocurra al realizar el experimento Es la frecuencia de que algo ocurra dividido

Más detalles

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos Contenido Acerca de los autores.............................. Prefacio.... xvii CAPÍTULO 1 Introducción... 1 Introducción.............................................. 1 1.1 Ideas de la estadística.........................................

Más detalles

Tema 3. Probabilidad y variables aleatorias

Tema 3. Probabilidad y variables aleatorias 1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri Estadística 010 Clase Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 1. La distribución de Bernoulli. La distribución binomial 3. La distribución de

Más detalles

PROBABILIDAD. Es el conjunto de todos los resultados posibles de un experimento aleatorio. Por ejemplo: Experimento: tirar un dado.

PROBABILIDAD. Es el conjunto de todos los resultados posibles de un experimento aleatorio. Por ejemplo: Experimento: tirar un dado. 1 PROBABILIDAD EXPERIMENTOS Al fijar las condiciones iniciales para un experimento se da lugar a dos tipos de situaciones: a) Experimentos determinísticos: se conoce el resultado. Por ejemplo: si suelto

Más detalles

Teorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i :

Teorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i : Teorema de Bayes(5) 75 Gráficamente, tenemos un suceso A en un espacio muestral particionado. Conocemos las probabilidades a priori o probabilidades de las partes sabiendo que ocurrió A: Teorema de Bayes(6)

Más detalles

Estimación de Parámetros

Estimación de Parámetros Estimación de Parámetros Jhon Jairo Padilla A., PhD. Inferencia Estadística La inferencia estadística puede dividirse en dos áreas principales: p Estimación de Parámetros Prueba de Hipótesis Estimación

Más detalles

Sesión 2: Teoría de Probabilidad

Sesión 2: Teoría de Probabilidad Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad las reglas mátemáticas de la probabilidad no son simplemente reglas para calcular frecuencias de variables aleatorias;

Más detalles

ESTADÍSTICA INFERENCIAL

ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL 1 Sesión No. 6 Nombre: Distribuciones de probabilidad para variables aleatorias continuas Contextualización Las variables aleatorias discretas son aquellas

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias Ignacio Cascos Fernández Departamento de Estadística Universidad Carlos III de Madrid Estadística I curso 2008 2009 Una variable aleatoria es un valor numérico que se corresponde con

Más detalles

1 CÁLCULO DE PROBABILIDADES

1 CÁLCULO DE PROBABILIDADES 1 CÁLCULO DE PROBABILIDADES 1.1 EXPERIENCIAS ALEATORIAS. SUCESOS 1.1.1 Definiciones Experiencia aleatoria: experiencia o experimento cuyo resultado depende del azar. Suceso aleatorio: acontecimiento que

Más detalles

ANÁLISIS DE FRECUENCIAS

ANÁLISIS DE FRECUENCIAS ANÁLISIS DE FRECUENCIAS EXPRESIONES PARA EL CÁLCULO DE LOS EVENTOS PARA EL PERÍODO DE RETORNO T Y DE LOS RESPECTIVOS ERRORES ESTÁNDAR DE ESTIMACIÓN REQUERIDOS PARA LA DETERMINACIÓN DE LOS INTERVALOS DE

Más detalles

Cálculo de Probabilidades II Preguntas Tema 2

Cálculo de Probabilidades II Preguntas Tema 2 Cálculo de Probabilidades II Preguntas Tema 2 1. Demuestre que la suma de n v.a. Bernuolli(p) independientes tiene una distribución Binomial con parametros (n, p). 2. Se dice que una v.a tiene una distribución

Más detalles

Identificación mediante el método de los mínimos cuadrados

Identificación mediante el método de los mínimos cuadrados Ingeniería de Control Identificación mediante el método de los mínimos cuadrados Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos relevantes aprendidos previamente:

Más detalles

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio

ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio ESTADÍSTICA I Tema 2: Algunas ideas básicas sobre inferencia estadística. Muestreo aleatorio Muestra aleatoria Conceptos probabiĺısticos básicos El problema de inferencia Estadísticos. Media y varianza

Más detalles

El Movimiento Browniano en la modelización del par EUR/USD

El Movimiento Browniano en la modelización del par EUR/USD MÁSTER UNIVERSITARIO EN DIRECCIÓN FINANCIERA Y FISCAL TESINA FIN DE MÁSTER El Movimiento Browniano en la modelización del par EUR/USD Autor: José Vicente González Cervera Directores: Dr. Juan Carlos Cortés

Más detalles

Conceptos Básicos de Inferencia

Conceptos Básicos de Inferencia Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico Formulario. Estadística Administrativa Módulo 1. Introducción al análisis estadístico Histogramas El número de intervalos de clase, k, se elige de tal forma que el valor 2 k sea menor (pero el valor más

Más detalles

EXPERIMENTO ALEATORIO

EXPERIMENTO ALEATORIO EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,

Más detalles

Distribuciones de probabilidad Discretas

Distribuciones de probabilidad Discretas Distribuciones de probabilidad Discretas Distribución Uniforme Discreta Definición Una variable aleatoria X, tiene una distribución uniforme discreta, si cada uno de los valores x 1, x 2,.. x n, tiene

Más detalles

Unidad IV: Distribuciones muestrales

Unidad IV: Distribuciones muestrales Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia

Más detalles

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47 Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor

Más detalles

Identificación Paramétrica

Identificación Paramétrica Identificación Paramétrica Métodos para la Obtención de un Modelo Discreto Un modelo, incluyendo el ruido o perturbación, a tiempo discreto puede ser representado por la siguiente i ecuación Donde: ( )

Más detalles

Capítulo 1. Teoría de la probabilidad Teoría de conjuntos

Capítulo 1. Teoría de la probabilidad Teoría de conjuntos Capítulo 1 Teoría de la probabilidad 1.1. Teoría de conjuntos Definición 1.1.1 El conjunto S de todos los posibles resultados de un experimento aleatorio es llamado el espacio muestral. Un espacio muestral

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Mag. María del Carmen Romero 2014 romero@econ.unicen.edu.ar Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo

Más detalles

Estadística Descriptiva y Probabilidad FORMULARIO

Estadística Descriptiva y Probabilidad FORMULARIO Estadística Descriptiva y Probabilidad FORMULARIO Departament d Estadística i Investigació Operativa Universitat de València Angel Corberán Francisco Montes 2 3 Capítulo 1 Estadística Descriptiva 1.1.

Más detalles

Tema 5 Algunas distribuciones importantes

Tema 5 Algunas distribuciones importantes Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos

Más detalles

Definición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s).

Definición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s). VARIABLE ALEATORIA Definición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s). X : S S s s X () s X(s) Rx Rx es el recorrido

Más detalles

ANÁLISIS DE REGRESIÓN

ANÁLISIS DE REGRESIÓN ANÁLISIS DE REGRESIÓN INTRODUCCIÓN Francis Galtón DEFINICIÓN Análisis de Regresión Es una técnica estadística que se usa para investigar y modelar la relación entre variables. Respuesta Independiente Y

Más detalles

1.1. Distribución exponencial. Definición y propiedades

1.1. Distribución exponencial. Definición y propiedades CONTENIDOS 1.1. Distribución exponencial. Definición y propiedades 1.2. Procesos de conteo 1.3. Procesos de Poisson - Tiempos de espera y entre llegadas - Partición y mezcla de un proceso de Poisson -

Más detalles

Probabilidades. Gerardo Arroyo Brenes

Probabilidades. Gerardo Arroyo Brenes Probabilidades Gerardo Arroyo Brenes Teoría de las Probabilidades Experimento: Es toda acción o proceso que produce resultados bien definidos. Ejemplos: Experimento Resultado: Lanzar una moneda Cara o

Más detalles

Contenidos IB-Test Matemática NM 2014.

Contenidos IB-Test Matemática NM 2014. REDLAND SCHOOL MATHEMATICS DEPARTMENT 3 MEDIO NM 1.- Estadística y probabilidad. Contenidos IB-Test Matemática NM 2014. 1.1.- Conceptos de población, muestra, muestra aleatoria, y datos discretos y continuos.

Más detalles

Distribuciones de probabilidad

Distribuciones de probabilidad Distribuciones de probabilidad 1. Variable aleatoria Una variable aleatoria X es una función que asocia a cada elemento del espacio muestral E un número real: X: E Ejemplo: Consideremos el experimento

Más detalles

Especialización en Métodos Estadísticos (EME) CURSO PROPEDÉUTICO ESTADÍSTICA BÁSICA

Especialización en Métodos Estadísticos (EME) CURSO PROPEDÉUTICO ESTADÍSTICA BÁSICA Especialización en Métodos Estadísticos (EME) CURSO PROPEDÉUTICO ESTADÍSTICA BÁSICA Enrique Rosales Ronzón, Patricia Díaz Gaspar, mayo 2015 Estadística??? Ciencia, Técnica, Arte Reunir, Organizar, presentar,

Más detalles

2. Conceptos Básicos de Probabilidad. ESTADÍSTICA Esp. Paola G. Herrera S.

2. Conceptos Básicos de Probabilidad. ESTADÍSTICA Esp. Paola G. Herrera S. 2. Conceptos Básicos de Probabilidad ESTADÍSTICA Esp. Paola G. Herrera S. Introducción La probabilidad es la rama de las matemáticas que estudia los fenómenos con incertidumbre. Es un mecanismo por medio

Más detalles

Tema 2 Modelos de probabilidad

Tema 2 Modelos de probabilidad Tema 2 Modelos de probabilidad José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Estructura de este tema Conceptos básicos de probabilidad. Modelos discretos: la distribución

Más detalles

Tema 3: VARIABLES ALEATORIAS

Tema 3: VARIABLES ALEATORIAS Tema 3: VARIABLES ALEATORIAS Introducción En el tema anterior hemos modelizado el comportamiento de los experimentos aleatorios. Los resultados de un experimento aleatorio pueden ser de cualquier naturaleza,

Más detalles

Clase 3. Procesos estocásticos en Teoría de la señal.

Clase 3. Procesos estocásticos en Teoría de la señal. 1 Introducción Clase 3. Procesos estocásticos en Teoría de la señal. Como ya se comentó en la clase anterior, el ruido es una señal inherente a cualquier transmisión de telecomunicación. El ruido es una

Más detalles

Departamento de Matemática Aplicada a la I.T. de Telecomunicación

Departamento de Matemática Aplicada a la I.T. de Telecomunicación Departamento de Matemática Aplicada a la I.T. de Telecomunicación ASIGNATURA: ESTADÍSTICA Y PROCESOS ESTOCÁSTICOS CONVOCATORIA: ENERO 22/23 FECHA: 9 de Enero de 23 Duración del examen: 3 horas Fecha publicación

Más detalles

Material introductorio

Material introductorio Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................

Más detalles

VARIABLES ALEATORIAS INTRODUCCIÓN

VARIABLES ALEATORIAS INTRODUCCIÓN DOCENTE: SERGIO ANDRÉS NIETO DUARTE CURSO: ESTADÍSTICA DE LA PROBABILIDAD VARIABLES ALEATORIAS INTRODUCCIÓN Normalmente, los resultados posibles (espacio muestral E) de un experimento aleatorio no son

Más detalles

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN

MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Teoría

Más detalles

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD) Fortino Vela Peón fvela@correo.xoc.uam.mx FVela-0 Objetivo Introducir las ideas básicas del principio de máxima verosimilitud. Problema Considere el experimento

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase

Más detalles

Eigenvalores y eigenvectores

Eigenvalores y eigenvectores Eigenvalores y eigenvectores Los dos problemas principales del álgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz actúa sobre

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

CAPITULO 6 DISTRIBUCIONES MUESTRALES

CAPITULO 6 DISTRIBUCIONES MUESTRALES CAPITULO 6 DISTRIBUCIONES MUESTRALES MUESTRAS ALEATORIAS PARA DEFINIR UNA MUESTRA ALEATORIA, SUPONGAMOS QUE x ES UNA VARIABLE ALEATORIA CON DISTRIBUCIÓN DE PROBABILIDADA f(x). EL CONJUNTO DE n OBSERVACIONES

Más detalles

PROCESOS ALEATORIOS. Capítulo AXIOMAS DE PROBABILIDAD

PROCESOS ALEATORIOS. Capítulo AXIOMAS DE PROBABILIDAD Capítulo 2 PROCESOS ALEATORIOS Los procesos aleatorios son importantes porque en casi todos los aspectos de la vida se presentan este tipo de situaciones en donde el comportamiento de un fenómeno o evento

Más detalles

Sistemas de Reconocimiento de Patrones

Sistemas de Reconocimiento de Patrones Sistemas de Reconocimiento de Patrones p. 1/33 Sistemas de Reconocimiento de Patrones Luis Vázquez GTI - IIE Facultad de Ingeniería Universidad de la República Sistemas de Reconocimiento de Patrones p.

Más detalles

ANALISIS DE FRECUENCIA EN HIDROLOGIA

ANALISIS DE FRECUENCIA EN HIDROLOGIA ANALISIS DE FRECUENCIA EN HIDROLOGIA Luis F. Carvajal Julián D. Rojo Universidad Nacional de Colombia Facultad de Minas Escuela de Geociencias y Medio Ambiente Introducción 1. Los eventos hidrológicos

Más detalles

PROBABILIDAD Y ESTADÍSTICA. Sesión 6 (A partir de tema 5.9)

PROBABILIDAD Y ESTADÍSTICA. Sesión 6 (A partir de tema 5.9) PROBABILIDAD Y ESTADÍSTICA Sesión 6 (A partir de tema 5.9) 5.9 Muestreo: 5.9.1 Introducción al muestreo 5.9.2 Tipos de muestreo 5.10 Teorema del límite central 5.11 Distribución muestral de la media 5.12

Más detalles

Tema 5. Variables Aleatorias

Tema 5. Variables Aleatorias Tema 5. Variables Aleatorias Presentación y Objetivos. En este tema se estudia el concepto básico de Variable Aleatoria así como diversas funciones fundamentales en su desarrollo. Es un concepto clave,

Más detalles

UNIVERSIDAD DE MANAGUA Al más alto nivel

UNIVERSIDAD DE MANAGUA Al más alto nivel UNIVERSIDAD DE MANAGUA Al más alto nivel Estadística Inferencial Encuentro #9 Tema: Estimación puntual y por Intervalo de confianza Prof.: MSc. Julio Rito Vargas A. Grupos: CCEE y ADMVA /2016 Objetivos:

Más detalles

Estadística Grupo V. Tema 10: Modelos de Probabilidad

Estadística Grupo V. Tema 10: Modelos de Probabilidad Estadística Grupo V Tema 10: Modelos de Probabilidad Algunos modelos de distribuciones de v.a. Hay variables aleatorias que aparecen con frecuencia en las Ciencias Sociales y Económicas. Experimentos dicotómicos

Más detalles

ESTADÍSTICA INFERENCIAL. Sesión 6: Distribuciones de probabilidad para variables aleatorias continuas

ESTADÍSTICA INFERENCIAL. Sesión 6: Distribuciones de probabilidad para variables aleatorias continuas ESTADÍSTICA INFERENCIAL Sesión 6: Distribuciones de probabilidad para variables aleatorias continuas Contextualización Las variables aleatorias discretas son aquellas que toman estrictamente valores enteros,

Más detalles

Muestreo de variables aleatorias

Muestreo de variables aleatorias Estadística II Universidad de Salamanca Curso 2011/2012 Outline 1 Introducción 2 Distribución de la muestra 3 4 5 Distribuciones de la media y la varianza en poblaciones normales Introducción Tiene como

Más detalles

Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA

Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA 1. Introducción Guía docente MÉTODOS ESTADÍSTICOS PARA LA EMPRESA Los análisis económicos y empresariales se efectúan sobre la base de la toma de decisiones, las cuales se toman a partir de la información

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13

Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13 Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

Tema 13: Distribuciones de probabilidad. Estadística

Tema 13: Distribuciones de probabilidad. Estadística Tema 13: Distribuciones de probabilidad. Estadística 1. Variable aleatoria Una variable aleatoria es una función que asocia a cada elemento del espacio muestral, de un experimento aleatorio, un número

Más detalles

Distribuciones de Probabilidad

Distribuciones de Probabilidad Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica

Más detalles

Estadística y Probabilidad

Estadística y Probabilidad La universidad Católica de Loja Estadística y Probabilidad ESCUELA DE ELECTRÓNICA Y TELECOMUNICACIONES Paralelo C Nombre: Milner Estalin Cumbicus Jiménez. Docente a Cargo: Ing. Patricio Puchaicela. Ensayo

Más detalles

Axiomática de la Teoría de Probabilidades

Axiomática de la Teoría de Probabilidades Axiomática de la Teoría de Probabilidades Modelos matemáticos Según el experimento Cada ejecución del experimento se denomina prueba o ensayo Determinísticos Aleatorios Conjunto de resultados posibles

Más detalles

Sesión 2: Teoría de Probabilidad

Sesión 2: Teoría de Probabilidad Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para

Más detalles

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

ANALISIS FACTORIAL. Jorge Galbiati R.

ANALISIS FACTORIAL. Jorge Galbiati R. ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores

Más detalles

Cuál es el campo de estudio de la prueba de hipótesis?

Cuál es el campo de estudio de la prueba de hipótesis? ESTIMACIÓN Establecer generalizaciones acerca de una población a partir de una muestra es el campo de estudio de la inferencia estadística. La inferencia estadística se divide en estimación y prueba de

Más detalles

Intervalos de Confianza

Intervalos de Confianza Intervalos de Confianza Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Intervalo de Confianza Se puede hacer una estimación puntual de

Más detalles

Conceptos. Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado.

Conceptos. Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado. Teresa Pérez P DíazD Profesora de matemática tica Conceptos Experimento Aleatorio: Es un fenómeno en el que interviene el azar, es decir no se puede predecir el resultado. Ejemplos: E : Lanzar un dado,

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA Pablo Torres Facultad de Ciencias Exactas, Ingeniera y Agrimensura - Universidad Nacional de Rosario Unidad 2: Probabilidad INTRODUCCIÓN Al lanzar un dado muchas veces veremos

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles