Nicolás Rivera. 20 de Marzo de 2012
|
|
- Marina Miguélez Ramírez
- hace 6 años
- Vistas:
Transcripción
1 Gramáticas Libre de Contexto Aleatorias. Nicolás Rivera 20 de Marzo de 2012 Pontificia Universidad Católica de Chile
2 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades
3 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades 2 Frecuencia Relativa de Producciones Distribuciones Propias Un poco de Estadística: Método Frecuencia Relativa Algunas propiedades
4 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades 2 Frecuencia Relativa de Producciones Distribuciones Propias Un poco de Estadística: Método Frecuencia Relativa Algunas propiedades 3 Distribuciones de Gibbs
5 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades 2 Frecuencia Relativa de Producciones Distribuciones Propias Un poco de Estadística: Método Frecuencia Relativa Algunas propiedades 3 Distribuciones de Gibbs 4 Resumen
6 Introducción Gramáticas Libres de Contexto Definición (Gramática Libre de Contexto) Una Gramática Libre de Contexto es una cuádrupla G = (V, T, P, S), donde V son las variables, T el conjunto de terminales, P las producciones y S V la variable inicial.
7 Introducción Gramáticas Libres de Contexto Definición (Gramática Libre de Contexto) Una Gramática Libre de Contexto es una cuádrupla G = (V, T, P, S), donde V son las variables, T el conjunto de terminales, P las producciones y S V la variable inicial. Asumiremos que V, T, P son finitos. Ejemplo: G = ({S}, {s}, {S s, S SS}, S)
8 Introducción Gramáticas Libres de Contexto Recordemos que la derivación de una palabra puede ser representada por un árbol τ.
9 Introducción Gramáticas Libres de Contexto Recordemos que la derivación de una palabra puede ser representada por un árbol τ. Sea Ω el conjunto de todos los árboles de derivación τ con raíz S. (finitos)
10 Introducción Gramáticas Libres de Contexto Recordemos que la derivación de una palabra puede ser representada por un árbol τ. Sea Ω el conjunto de todos los árboles de derivación τ con raíz S. (finitos) Para cada árbol τ definimos f (A α; τ) como el número de veces que la producción A α aparece en τ y f (A; τ) el número de apariciones de la variable A τ, es decir: f (A; τ) = f (A α; τ) α (N T ) A α
11 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales.
12 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales. Definimos τ, el tamaño de τ como el número total de nodos no terminales en τ.
13 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales. Definimos τ, el tamaño de τ como el número total de nodos no terminales en τ. Finalmente, denotamos por γ a las palabras en (V T ).
14 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales. Definimos τ, el tamaño de τ como el número total de nodos no terminales en τ. Finalmente, denotamos por γ a las palabras en (V T ). Por otra parte definimos n(a; γ) como el número de ocurrencias de A en γ y denotamos por γ al largo de γ.
15 Introducción Gramáticas Libres de Contexto Símbolo Significado τ árbol Ω conjunto de árboles de derivación con raíz S f (A α; τ) cantidad de veces que aparece A α en τ f (A) cantidad de veces que aparece A en τ h(τ) altura del árbol (contando solo vértices no terminales) τ cantidad de vértices no terminales en τ γ palabra en (V T ) γ largo de γ
16 Introducción Sistema de Producción de Probabilidades Sistema de Producción de Probabilidades
17 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1.
18 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1.
19 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1. Es fácil comprobar que dado un árbol de tamaño finito τ,
20 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1. Es fácil comprobar que dado un árbol de tamaño finito τ, P(τ) = p(a α) f (A α;τ) A α
21 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1. Es fácil comprobar que dado un árbol de tamaño finito τ, P(τ) = A α p(a α) f (A α;τ) A la construcción anterior la llamamos una GLCA.
22 Introducción Sistema de Producción de Probabilidades Notemos que lo anterior no solo puede usarse para definir una probabilidad sobre Ω, sino que sobre Ω A, el conjunto de todos los árboles de derivación que comienzan en A (A V ). Denotamos P A cuando nos referimos a la probabilidad sobre Ω A y seguimos usando P para P S.
23 Introducción Sistema de Producción de Probabilidades Notemos que lo anterior no solo puede usarse para definir una probabilidad sobre Ω, sino que sobre Ω A, el conjunto de todos los árboles de derivación que comienzan en A (A V ). Denotamos P A cuando nos referimos a la probabilidad sobre Ω A y seguimos usando P para P S. Sea g una función g : Ω R, definimos la esperanza de g por E(g) = τ Ω g(τ)p(τ). De forma análoga se define E A para funciones g : Ω A R.
24 Introducción Sistema de Producción de Probabilidades Símbolo Significado Ω conjunto de árboles de derivación con raíz S Ω A conjunto de árboles de derivación con raíz A (A V ) P probabilidad sobre Ω creada a partir de p P A probabilidad sobre Ω A E esperanza sobre Ω E A esperanza sobre Ω A
25 Frecuencia Relativa de Producciones Frecuencia Relativa de Producciones
26 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1.
27 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1. Por ejemplo: en G = ({S}, {s}, {S s, S SS}, S) consideremos p por p(s s) = 1 q y p(s SS) = q con q [0, 1] si τ es un árbol aleatorio en Ω entonces
28 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1. Por ejemplo: en G = ({S}, {s}, {S s, S SS}, S) consideremos p por p(s s) = 1 q y p(s SS) = q con q [0, 1] si τ es un árbol aleatorio en Ω entonces P( τ < ) = P( τ < ) 2 p(s SS) + p(s s) = P( τ < ) 2 q + (1 q).
29 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1. Por ejemplo: en G = ({S}, {s}, {S s, S SS}, S) consideremos p por p(s s) = 1 q y p(s SS) = q con q [0, 1] si τ es un árbol aleatorio en Ω entonces P( τ < ) = P( τ < ) 2 p(s SS) + p(s s) = P( τ < ) 2 q + (1 q). La ecuación anterior tiene dos soluciones para P( τ < ), 1 y 1/q 1. Se puede mostrar que la solución adecuada es P( τ < ) = min(1, 1/q 1) por lo tanto si q > 1/2 se impone una probabilidad impropia.
30 Frecuencia Relativa de Producciones Distribuciones Propias Nuestro objetivo es construir buenas funciones p.
31 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p.
32 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p. Consideremos la muestra aleatoria de n árboles de derivación τ 1,...,τ n. Definimos el estimador 2
33 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p. Consideremos la muestra aleatoria de n árboles de derivación τ 1,...,τ n. Definimos el estimador 2 ˆp(A α) = n i=1 f (A α; τ i) n i=1 f (A; τ. i)
34 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p. Consideremos la muestra aleatoria de n árboles de derivación τ 1,...,τ n. Definimos el estimador 2 ˆp(A α) = n i=1 f (A α; τ i) n i=1 f (A; τ. i) Definimos por ˆP k a la probabilidad sobre Ω generada por ˆp
35 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa En general no es posible observar los árboles, sino que solo podemos observar los símbolos terminales de él (es decir, la palabra). Notemos por Y (τ) a la palabra correspondiente al árbol τ. Sean Y 1,...,Y n las palabras observadas entonces el estimador queda como
36 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa En general no es posible observar los árboles, sino que solo podemos observar los símbolos terminales de él (es decir, la palabra). Notemos por Y (τ) a la palabra correspondiente al árbol τ. Sean Y 1,...,Y n las palabras observadas entonces el estimador queda como ˆp(A α) = n i=1 Eˆp(f (A α; τ) τ Ω Yi ) n i=1 Eˆp(f (A; τ) τ Ω Yi )
37 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa En general no es posible observar los árboles, sino que solo podemos observar los símbolos terminales de él (es decir, la palabra). Notemos por Y (τ) a la palabra correspondiente al árbol τ. Sean Y 1,...,Y n las palabras observadas entonces el estimador queda como ˆp(A α) = n i=1 Eˆp(f (A α; τ) τ Ω Yi ) n i=1 Eˆp(f (A; τ) τ Ω Yi ) Lo anterior es difícil de calcular pero hay métodos numéricos que pueden ayudar. En particular 3, ˆp k+1 (A α) = n i=1 Eˆp k (f (A α; τ) τ Ω Yi ) n i=1 Eˆp k (f (A; τ) τ Ω Yi )
38 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Notemos que Eˆpk (f (A α) τ Ω Yi ) = τ Ω Yi f (A α; τ)ˆp k (τ τ Ω Yi ).
39 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Notemos que Eˆpk (f (A α) τ Ω Yi ) = τ Ω Yi f (A α; τ)ˆp k (τ τ Ω Yi ). Sean Λ el conjunto de todos los árboles de derivación que podrían pertenecer a los datos, es decir Λ = {τ : Y (τ) {Y 1,..., Y b }}
40 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Notemos que Eˆpk (f (A α) τ Ω Yi ) = τ Ω Yi f (A α; τ)ˆp k (τ τ Ω Yi ). Sean Λ el conjunto de todos los árboles de derivación que podrían pertenecer a los datos, es decir Λ = {τ : Y (τ) {Y 1,..., Y b }} Sea τ Λ, sea y = Y (τ). Definamos W (τ) = i:y i =y ˆP k (τ τ Ω y ) = i : Y i = i ˆP k (τ).
41 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Se sigue que para toda regla de producción A α, n f (A α; τ)ˆp k (τ τ Ω Yi ) = f (A α; τ)w (τ) τ Ω Yi i=1 τ Λ
42 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Se sigue que para toda regla de producción A α, n f (A α; τ)ˆp k (τ τ Ω Yi ) = f (A α; τ)w (τ) τ Ω Yi i=1 τ Λ y por lo tanto ˆp k (A α) = τ Λ τ Λ f (A α; τ)w (τ) f (A; τ)w (τ)
43 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G.
44 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G. Primero consideramos un conjunto finito Λ Ω, tal que toda regla de producción aparezca en algún árbol en Λ, luego asignamos a cada árbol un peso W (τ) tal que τ Λ W (τ) = 1.
45 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G. Primero consideramos un conjunto finito Λ Ω, tal que toda regla de producción aparezca en algún árbol en Λ, luego asignamos a cada árbol un peso W (τ) tal que τ Λ W (τ) = 1. y finalmente definimos p como τ Λ f (A α; τ)w (τ) p(a α) = τ Λ f (A; τ)w (τ).
46 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G. Primero consideramos un conjunto finito Λ Ω, tal que toda regla de producción aparezca en algún árbol en Λ, luego asignamos a cada árbol un peso W (τ) tal que τ Λ W (τ) = 1. y finalmente definimos p como τ Λ f (A α; τ)w (τ) p(a α) = τ Λ f (A; τ)w (τ). El método anterior es llamado Método de Frecuencia Relativa
47 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Teorema Si todos los elementos de T aparecen en algún árbol de Λ y todas las producciones tienen probabilidades positivas, entonces el método de frecuencia relativa impone una distribución propia sobre Ω. Corolario Bajo las condiciones anteriores, para todo A V el método de frecuencia relativa impone una distribución propia sobre Ω A. Demostración: Pizarra.
48 Frecuencia Relativa de Producciones Algunas propiedades Un poco de notación. Dados Λ = {τ 1,..., τ n }, definimos F (A α) = τ Λ f (A λ; τ)w (τ),
49 Frecuencia Relativa de Producciones Algunas propiedades Un poco de notación. Dados Λ = {τ 1,..., τ n }, definimos F (A α) = τ Λ f (A λ; τ)w (τ), y F (A) = F (A α) = f (A; τ)w (τ), α:a α τ Λ
50 Frecuencia Relativa de Producciones Algunas propiedades Un poco de notación. Dados Λ = {τ 1,..., τ n }, definimos F (A α) = τ Λ f (A λ; τ)w (τ), y por lo tanto F (A) = α:a α F (A α) = τ Λ p(a α) = F (A α), F (A) f (A; τ)w (τ),
51 Frecuencia Relativa de Producciones Algunas propiedades Teorema Supongamos que todos las producciones de P de la gramática G aparecen en algún árbol de τ y supongamos que W (τ) > 0 para todo τ Λ, entonces y supongamos además que p fue asignada con el método de frecuencia relativa, entonces si Υ es un árbol aleatorio entonces E(f (A α; Υ)) = τ Λ f (A α; τ)w (τ) Demostración: Pizarra.
52 Frecuencia Relativa de Producciones Algunas propiedades Sea P la probabilidad inducida por el método de frecuencia relativa. La entropía de P es H(P) = τ Ω 1 P(τ) log(p(τ))
53 Frecuencia Relativa de Producciones Algunas propiedades Sea P la probabilidad inducida por el método de frecuencia relativa. La entropía de P es H(P) = τ Ω 1 P(τ) log(p(τ)) Teorema H(P) = A α P 1 F (A α) log( F (A α) ) 1 F (A) log( F (A) A V Demostración: Pizarra.
54 Frecuencia Relativa de Producciones Algunas propiedades Diremos que M es la matríz de media de una GMLA si M es una matriz de V x V donde M(A, B) es el promedio de variables B resultantes de expandir A, es decir
55 Frecuencia Relativa de Producciones Algunas propiedades Diremos que M es la matríz de media de una GMLA si M es una matriz de V x V donde M(A, B) es el promedio de variables B resultantes de expandir A, es decir M(A, B) = p(a α)n(b; α), α:a α
56 Frecuencia Relativa de Producciones Algunas propiedades Diremos que M es la matríz de media de una GMLA si M es una matriz de V x V donde M(A, B) es el promedio de variables B resultantes de expandir A, es decir M(A, B) = p(a α)n(b; α), α:a α donde n(b; α) es la cantidad de veces que aparece B en α.
57 Frecuencia Relativa de Producciones Algunas propiedades Una herramienta útil:
58 Frecuencia Relativa de Producciones Algunas propiedades Una herramienta útil: Teorema (Perron-Frobenius) Sea M una matriz cuadrada no negativa. Entonces 1 Existe un valor propio no negativo ρ = ρ(m) tal que ningún valor propio de A tiene valor absoluto más grande que ρ. 2 El vector propio asociado a ρ tiene componentes no negativas. 3 Si M es irreducible, es decir, para todo i, j existe n tal que M (n) (i, j) > 0, entonces ρ es único y su vector propio es estrictamente positivo. Estudiaremos ρ y su relación con las GLCA.
59 Frecuencia Relativa de Producciones Algunas propiedades La norma de una matriz está dada po M = sup v =1 M v. Otro útil resultado es Lema ĺım n M(n) 1/n = ρ(m). Teorema Sea M la matriz de media de una GLCA, si ρ(m) < 1 entonces para cada m N se tiene que E( τ m ) < Demostración: Pizarra.
60 Frecuencia Relativa de Producciones Algunas propiedades Teorema Si p es asignada por el método de frecuencia relativa entonces la matriz de media M de la GLCA cumple con ρ(m) < 1. Demostración: Pizarra.
61 Distribuciones de Gibbs Una distribución de Gibbs sobre los árboles de derivación tiene la siguiente forma: P(τ) = eλ U(τ) Z λ,
62 Distribuciones de Gibbs Una distribución de Gibbs sobre los árboles de derivación tiene la siguiente forma: P(τ) = eλ U(τ) Z λ, donde λ y U(τ) son vectores de la misma dimensión y λ U(τ) es su producto interno. Por otra parte Z λ = τ Ω eλ U(τ).
63 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA.
64 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA. Consideremos 1 U(τ) = f (τ) = {f (A α; τ)} (A α) P 2 λ A α = log(p(a α)) Entonces si p forma una distribución propia P, se tiene que
65 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA. Consideremos 1 U(τ) = f (τ) = {f (A α; τ)} (A α) P 2 λ A α = log(p(a α)) Entonces si p forma una distribución propia P, se tiene que Z λ = exp {λ f (τ)} = P(τ) = 1 τ Ω τ Ω
66 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA. Consideremos 1 U(τ) = f (τ) = {f (A α; τ)} (A α) P 2 λ A α = log(p(a α)) Entonces si p forma una distribución propia P, se tiene que Z λ = τ Ω exp {λ f (τ)} = τ Ω P(τ) = 1 y luego P(τ) = A α p(a α) f (A α;τ) = = exp log(p(a α))f (A α; τ) = exp{λ f (τ)}. (A α) P
67 Distribuciones de Gibbs Lo anterior sirve para normalizar gramáticas, es decir, convertir GLCA impropias en propias.
68 Distribuciones de Gibbs Lo anterior sirve para normalizar gramáticas, es decir, convertir GLCA impropias en propias. Si P es una probabilidad impropia, es decir P(Ω) < 1 entonces definimos
69 Distribuciones de Gibbs Lo anterior sirve para normalizar gramáticas, es decir, convertir GLCA impropias en propias. Si P es una probabilidad impropia, es decir P(Ω) < 1 entonces definimos P(τ) = P(τ) P(Ω).
70 Distribuciones de Gibbs Con lo anterior vimos como construir una distribución de Gibbs dada la GLCA. De la misma forma, sí la distribución de Gibbs tiene la forma vista en la parte anterior entonces forma una GLCA.
71 Distribuciones de Gibbs Con lo anterior vimos como construir una distribución de Gibbs dada la GLCA. De la misma forma, sí la distribución de Gibbs tiene la forma vista en la parte anterior entonces forma una GLCA. Lo anterior tiene una aplicación. Sea una GLCA con P impropia, es decir P(Ω) < 1. Luego P(τ) = P(τ) P(Ω), es una normalización de P. En general se puede normalizar de la misma forma P A.
72 Distribuciones de Gibbs Teorema (Normalización) Supuponga que las probabilidades de producción impuestas por p impropia son positivas para toda regla de producción. Entonces el sistema de producción de probabilidades normalizado p se induce por p(a α) = 1 P(Ω A ) p(a α) P(Ω B ) n(b;α). B V Entonces p induce una GLCA propia.
73 Resumen Resumen. Vimos que es una GLCA.
74 Resumen Resumen. Vimos que es una GLCA. Construimos una clase particular de GLCA basadas en la intuición estadística.
75 Resumen Resumen. Vimos que es una GLCA. Construimos una clase particular de GLCA basadas en la intuición estadística. Estudiamos dicha gramática desde el punto de vista anaĺıtico.
76 Resumen Resumen. Vimos que es una GLCA. Construimos una clase particular de GLCA basadas en la intuición estadística. Estudiamos dicha gramática desde el punto de vista anaĺıtico. Vimos un tipo de distribución más general que las GLCA, las distribuciones de Gibbs.
77 Resumen Qué hay más adelante? Estudiar las GLCA de forma general.
78 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites.
79 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites. Tener más tipo de estadísticas para las GLCA
80 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites. Tener más tipo de estadísticas para las GLCA Estudio algorítmico de las gramáticas.
81 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites. Tener más tipo de estadísticas para las GLCA Estudio algorítmico de las gramáticas. Aplicaciones.
Probabilidad y Estadística
Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.
Más detallesExpresiones Regulares y Gramáticas Regulares
y Gramáticas Regulares Sistemas Lineales. Universidad de Cantabria Esquema Idea 1 Idea 2 3 Problema Idea Nos preguntamos si las expresiones regulares generan los mismos lenguajes que las gramáticas regulares.
Más detallesCiencias de la Computación I
Ciencias de la Computación I Gramáticas Libres del Contexto y Lenguajes Libres del Contexto Gramáticas Formales Una gramática formal es una cuadrupla G = (N, T, P, S) N = conjunto finito de símbolos no
Más detallesMMAF: Espacios normados y espacios de Banach
MMAF: Espacios normados y espacios de Banach Licenciatura en Estadística R. Álvarez-Nodarse Universidad de Sevilla Curso 2011/2012 Espacios vectoriales Definición Sea V un conjunto de elementos sobre el
Más detallesLos Axiomas de Kolmogorov. Parte II.
Los Axiomas de Kolmogorov. Parte II. 1 Sucesiones infinitas de Eventos y el problema de la Medida de Probabilidad Hasta el momento hemos estudiado modelos de probabilidad cuya clase de eventos incluye
Más detallesDepartamento de Ingeniería Matemática - Universidad de Chile
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial
Más detallesMétodo de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011
Método de Newton Cálculo numérico. Notas de clase. 25 de abril, 2011 La resolución de sistemas de ecuaciones algebraicas no lineales de la forma F(x) = 0, F : R n R n, (1) en donde F es una función continua
Más detallesUna invitación al estudio de las cadenas de Markov
Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de
Más detallesTEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18
TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de
Más detallesDiferenciciación en R n
Diferenciciación en R n R. Álvarez-Nodarse Universidad de Sevilla Cómo definir la derivada? Definición Sea A un abierto de R n, a A y f : A R n R m. La derivada parcial i-ésima (1 i n) de f en a se define
Más detalles10. Series de potencias
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 7-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San
Más detallesEl espacio euclideano
Capítulo 1 El espacio euclideano 1. Definiciones básicas El espacio Euclideano, denotado por R n, está definido por el conjunto (1.1) R n = {x = (x 1, x 2,..., x n ) : x i R}. Es decir, R n es efectivamente
Más detalles6. Ortogonalidad. Universidad de Chile Conjuntos ortogonales y ortonormales. Ingeniería Matemática SEMANA 12: ORTOGONALIDAD
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 7- SEMANA : ORTOGONALIDAD 6 Ortogonalidad 6 Conjuntos ortogonales y ortonormales Recordemos que la proyección de u sobre v
Más detallesIntroducción a los Procesos de Poisson *
Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22
Más detallesTema 2: Diagonalización
TEORÍA DE ÁLGEBRA II: Tema 2. DIPLOMATURA DE ESTADÍSTICA 1 Tema 2: Diagonalización 1 Introducción Sea f : R n R n lineal. Dada una base B de R n podemos asociar a f la matriz A 1 = [f, B] M n. Si C es
Más detalles10.1 Enfoque Bayesiano del problema de la estimación
Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,
Más detallesIntroducción a la complejidad computacional
Introducción a la complejidad computacional definida sobre anillos arbitrarios 18 de junio de 2016 Fuente: http://www.utmmcss.com/ Por qué otro modelo? Continuo vs discreto. Intuición interiorizada del
Más detallesVectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias
Universidad de Chile Facultad De Ciencias Físicas y Matemáticas MA3403 - Probabilidades y Estadística Prof. Auxiliar: Alberto Vera Azócar. albvera@ing.uchile.cl Vectores Aleatorios 1. Vectores Aleatorios
Más detalles2.2 Normas matriciales
P Castillo Capítulo 2 13 22 Normas matriciales En el caso de las matrices cuadradas de orden n la estructura algebraica es mucho más rica que la de un espacio vectorial K n ; además de tener operaciones
Más detallesEspacios topológicos. 3.1 Espacio topológico
Capítulo 3 Espacios topológicos 3.1 Espacio topológico Definición 3.1.1. Un espacio topológico es un par (X, τ), donde X es un conjunto, y τ es una familia de subconjuntos de X que verifica las siguientes
Más detallesTEMA 2: SISTEMAS LINEALES. 1. Introducción Un sistema de m ecuaciones lineales con n incógnitas viene dado por a 11 x a 1n x n = b 1
TEMA 2: SISTEMAS LINEALES 1 Introducción Un sistema de m ecuaciones lineales con n incógnitas viene dado por a 11 x 1 + + a 1n x n b 1 a m1 x 1 + + a mn x n b m donde a ij y b k son números reales fijos
Más detallesComportamiento asintótico de estimadores
Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos
Más detallesEL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información
EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información Patricio Parada Néstor Becerra Yoma Departamento de Ingeniería Eléctrica Universidad de Chile 18 de Noviembre de
Más detallesVariables Aleatorias y Distribución de Probabilidades
Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables
Más detallesHacia las Gramáticas Propias
Hacia las Gramáticas sin Ciclos Universidad de Cantabria Esquema 1 Introducción 2 3 Introducción Las gramáticas libres de contexto pueden presentar diferentes problemas. Ya hemos visto como eliminar los
Más detalles1. Continuidad. Universidad de Chile Subsucesiones. Ingeniería Matemática
1. Continuidad 1.1. Subsucesiones Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08- Importante: Visita regularmente http://www.dim.uchile.cl/~calculo.
Más detallesMétodos Matemáticos: Análisis Funcional
Licenciatura en Ciencias y Técnicas Estadísticas Universidad de Sevilla http://euler.us.es/ renato/clases.html Espacios eucĺıdeos Definición Se dice que un espacio vectorial E es un espacio eucĺıdeo si
Más detallesDepartamento de Ingeniería Matemática - Universidad de Chile
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 8-7 Formas cuadráticas SEMANA 4: FORMAS CUADRÁTICAS 7 Formas cuadráticas y matrices definidas positivas
Más detallesAnálisis de Correspondencias Simple
1 Capítulo 4 Análisis de Correspondencias Simple 41 INTRODUCCIÓN El Análisis de Correspondencias Simple permite describir las relaciones entre dos variables categóricas dispuestas en una tabla de contingencia
Más detallesPor ejemplo, consideremos el experimento de lanzar una moneda. Tenemos que Ωáguila, sol. Podemos definir la variable aleatoria X como:
Las variables aleatorias son una herramienta que permite traducir los posibles resultados de un experimento aleatorio en números reales. Definiremos a una variable aleatoria como una función X : Ω R tal
Más detallesFUNCIONES MEROMORFAS. EL TEOREMA DE LOS RESIDUOS Y ALGUNAS DE SUS CONSECUENCIAS
FUNCIONES MEROMORFAS. EL TEOREMA DE LOS RESIDUOS Y ALGUNAS DE SUS CONSECUENCIAS. FUNCIONES MEROMORFAS Definición.. Se dice que una función es meromorfa en un abierto Ω de C si f es holomorfa en Ω excepto
Más detallesAnálisis de la Varianza (ANOVA) y Correlación
Universidad de Chile Rodrigo Assar FCFM MA34B Andrés Iturriaga DIM Víctor Riquelme Análisis de la Varianza (ANOVA) y Correlación Resumen El test ANOVA analiza la relación entre una variable numérica y
Más detallesUna aplicación de la Teoría Ergódica en la búsqueda de Google
Ergódica Una aplicación de la Ergódica en la búsqueda de Google 10 de octubre de 2009 Una aplicación de la Ergódica en la búsqueda de Google Google Ergódica Una aplicación de la Ergódica en la búsqueda
Más detallesCadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM
Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es
Más detallesDeducción de las fórmulas del método del gradiente conjugado
Deducción de las fórmulas del método del gradiente conjugado Objetivos. Demostrar el teorema sobre los subespacios de Krylov en el método del gradiente conjugado. Requisitos. Subespacios generados por
Más detallesTema 12. Series numéricas Definiciones y propiedades generales Definiciones y primeros ejemplos.
Tema 2 Series numéricas. 2.. Definiciones y propiedades generales. 2... Definiciones y primeros ejemplos. Definición 2... Sea {a n } una sucesión de números reales. Para cada n N, definimos n S n := a
Más detallesEjercicios Adicionales de Cálculo de Probabilidades LICENCIATURA EN MATEMÁTICAS. CURSO
1 DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA Universidad de Sevilla Ejercicios Adicionales de Cálculo de Probabilidades LICENCIATURA EN MATEMÁTICAS. CURSO 2005-2006. NOTACIONES Y NOMENCLATURA:
Más detallesEspacios conexos. 6.1 Conexos
Capítulo 6 Espacios conexos 6.1 Conexos Definición 6.1.1 (Conjuntos separados). Dado un espacio topológico (X, τ) y dos subconjuntos A, B X, diremos que A y B están separados si A B = A B = Es evidente
Más detallesProcesos estocásticos
Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:
Más detallesConsistencia, Estabilidad y Convergencia
Consistencia, Estabilidad y Convergencia 1. étodos a un paso Para aproximar la solución x = x(t) del problema de valores iniciales (PVI) x = f(t, x) a t b x(a) = α consideramos el método numérico a un
Más detallesTema 5: Funciones medibles. Variables aleatorias. Función de distribución.
Tema 5: Funciones medibles. Variables aleatorias. Función de distribución. El concepto de variable aleatoria formaliza las magnitudes numéricas asociadas a los resultados de una experimento aleatorio.
Más detallesOrtogonalización de Gram Schmidt
Ortogonalización de Gram Schmidt Objetivos. Estudiar el proceso de ortogonalización de Gram Schmidt que permite construir de una lista arbitraria de vectores a,..., a m una lista ortogonal b,..., b m que
Más detallesEL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades
EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase
Más detallesUna aplicación de la Teoría Ergódica en la búsqueda de Google
Dónde entra la Una aplicación de la en la búsqueda de 14 de octubre de 2009 Una aplicación de la en la búsqueda de Dónde entra la Una aplicación de la en la búsqueda de Dónde entra la Qué es el PageRank?
Más detallesGrupos libres. Presentaciones.
S _ Tema 12.- Grupos libres. Presentaciones. 12.1 Grupos libres. En el grupo Z de los enteros vimos una propiedad (cf. ejemplos.5), que lo caracteriza como grupo libre. Lo enunciamos al modo de una Propiedad
Más detallesMétodos Multipaso lineales
Elementos de Cálculo Numérico - Cálculo Numérico Segundo Cuatrimestre de 2008 (FCEN - UBA) Métodos Multipaso lineales Consideramos el problema de valores iniciales (PVI) y = f(x, y) a x b y(a) = α Dado
Más detalles: k }, es decir. 2 k. k=0
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San
Más detallesPráctica 5 Martingalas a tiempo discreto
Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.
Más detallesEspacios vectoriales
CAPíTULO 2 Espacios vectoriales 1. Definición de espacio vectorial Es frecuente representar ciertas magnitudes físicas (velocidad, fuerza,...) mediante segmentos orientados o vectores. Dados dos de tales
Más detallesTrascendencia y Schneider-Lang
Trascendencia y Schneider-Lang Seminario de Teoría de Números Nicolás Vilches (PUC) Abril 20 de 2018 Números algebraicos y trascendentes Definición Decimos que un α C es algebraico si existe un polinomio
Más detallesCálculo Numérico III Curso 2010/11
Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los
Más detalles1. Campos vectoriales y formas diferenciales
Capítulo Orientación. Campos vectoriales formas diferenciales En este capítulo introduciremos el concepto de orientación, mu importante en el análisis de variedades, en particular la teoriá de integración.
Más detallesIntroducción. Capítulo Introducción. Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos
Capítulo 1 Introducción 1.1. Introducción Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos La distribución de esta variable aleatoria es Definimos M n = máx i n X i. P (M n x) = P
Más detallesClasificación Supervisada
Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y
Más detallesProbabilidad y Estadística
UNSL Probabilidad A Priori y Habemus Página!!! probabilidadyestadisticaunsl.weebly.com Introducción Probabilidad A Priori Ya hemos visto cómo definir una distribución de probabilidad sobre una familia
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 10
Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios
Más detallesDiagonalización de matrices
Diagonalización de matrices María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Diagonalización de matrices Matemáticas I 1 / 22 Valores y vectores propios de una matriz Definición
Más detallesLas Gramáticas LL. Gramáticas con Parsing Eficiente. Universidad de Cantabria
Las (k) Las Gramáticas con Parsing Eficiente Universidad de Cantabria Outline Las (k) 1 Las (k) 2 3 Las (k) Formalizalización del Concepto LL Definición Una gramática libre de contexto G = (V, Σ, Q 0,
Más detallesDescomposición del valor singular y sus aplicaciones
7 Descomposición del valor singular y sus aplicaciones Marlene J. Soldevilla Olivares William C. Echegaray Castillo Resumen El presente trabajo damos algunas propiedades de los valores singulares de una
Más detallesHacia las Gramáticas Propias II
Hacia las Hacia las II Gramáticas sin Ciclos Universidad de Cantabria Outline Hacia las 1 Hacia las 2 3 Definición Hacia las Definición Diremos que una gramática libre de contexto G := (V, Σ, Q 0, P) es
Más detallesGustavo Rodríguez Gómez. Agosto Dicembre 2011
Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 44 Capítulo III Descomposición de Matrices 2 / 44 1 Descomposición de Matrices Notación Matrices Operaciones con Matrices 2
Más detallesRepresentaciones gráficas de las distribuciones bidimensionales de frecuencias... 74
Índice 1. Introducción al R 15 1.1. Introducción............................. 15 1.2. El editor de objetos R....................... 18 1.3. Datos en R............................. 19 1.3.1. Vectores...........................
Más detallesMétodos Matemáticos: Análisis Funcional
Licenciatura en Ciencias y Técnicas Estadísticas Universidad de Sevilla http://euler.us.es/ renato/clases.html Qué son esos espacios de Hilbert? Qué son esos espacios de Hilbert? David Hilbert Para relajarnos
Más detallesProcesos estocásticos Sesión 4. Cadenas de Markov
Procesos estocásticos Sesión 4. Cadenas de Markov Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Probabilidades de retorno
Más detallesUn elemento de un monoide se dice que es inversible si tiene elemento inverso.
Tema 1: Semigrupos 1 Tema 1: Semigrupos 1. Semigrupos: Conceptos fundamentales. Recordemos que un sistema algebraico es un conjunto S con una o varias operaciones sobre él, siendo una operación ó ley de
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesPropiedades de lenguajes independientes del contexto
Capítulo 12. Propiedades de lenguajes independientes del contexto 12.1. Identificación de lenguajes independientes del contexto Lema de bombeo. 12.2. Propiedades Cierre, Complemento de lenguajes, Sustitución,
Más detallesCurso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo
Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay
Más detallesLa Representación de las Gramáticas
La Representación de las Gramáticas El Generador del Lenguaje Universidad de Cantabria Esquema 1 Introducción 2 3 4 Introducción Las gramáticas libres de contexto son más generales que las gramáticas regulares.
Más detallesExpresiones Regulares y Derivadas Formales
y Derivadas Formales Las Derivadas Sucesivas. Universidad de Cantabria Esquema 1 2 3 Derivadas Sucesivas Recordemos que los lenguajes de los prefijos dan información sobre los lenguajes. Derivadas Sucesivas
Más detallesDescripción de los Lenguajes Aceptados por Autómatas
Descripción de los Lenguajes Aceptados por Autómatas Los Teoremas de Kleene Universidad de Cantabria Esquema 1 2 3 Lenguajes Aceptados por Autómatas Como repaso, tenemos un problema de respuesta Si/No
Más detallesTema 2. Aplicaciones lineales. Diagonalización de endomorfismos.
Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada
Más detallesCurso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013
Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población
Más detallesEstructuras algebraicas
Semana 11[1/22] 4 de mayo de 2007 Anillos y cuerpos Semana 11[2/22] Anillos Comenzamos ahora el estudio de estructuras algebraicas que tengan definidas dos operaciones, y las clasificaremos en anillos
Más detallesTema 6: Funciones de varias variables
Tema 6: Funciones de varias variables de febrero de 6 Preliminares: derivadas parciales. Sea F una función de dos variables, como por ejemplo la función definida por F(x; y) = x y 3 Podemos derivarla con
Más detallesLímite superior y límite inferior de una sucesión
Límite superior y límite inferior de una sucesión Objetivos. Definir las nociones de los límites superior e inferior de una sucesión y estudiar sus propiedades básicas. Requisitos. Supremo e ínfimo de
Más detallesMatemática Avanzada. Clase Nro. 1. Octavio Miloni. Clase Nro. 1. Facultad de Cs. Astronómicas y Geofísicas - Universidad Nacional de La Plata
Facultad de Cs. Astronómicas y Geofísicas - Universidad Nacional de La Plata 1. Repaso de Espacios Vectoriales Dado un conjunto V de elementos y un conjunto numérico (que sea cuerpo) K (en general vamos
Más detallesMariano Suárez-Alvarez. 7 de mayo, Límites superiores y límites inferiores
ĺımsup y ĺıminf Mariano Suárez-Alvarez 7 de mayo, 2013 1.1. Definiciones 1. Límites superiores y límites inferiores 1.1. Sea (a n ) n 1 una sucesión de números reales que es acotada superiormente. Si para
Más detallesSea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares).
Capítulo 6 Espacios Vectoriales 6.1 Definiciones Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares). Definición 6.1.1 Se dice que
Más detallesEliminación de Símbolos Inútiles
Eliminación de Símbolos Inútiles Veremos cómo eliminar los símbolos inútiles de una gramática. Lo haremos con dos algoritmos, que son definidos en la demostración de los siguientes lemas. Lema 1 Dada una
Más detalles2. CONSTRUCCIÓN DE MEDIDAS.
2. CONSTRUCCIÓN DE MEDIDAS. 1. MEDIDAS EXTERIORES. (2,1,1) Definición. Una medida exterior es una aplicación µ : P(X) [0, + ] que cumple: (a) µ ( ) = 0. (b) Monotonía: Si A B, entonces µ (A) µ (B). (c)
Más detallesMovimiento Browniano o proceso de Wiener
1 Movimiento Browniano o proceso de Wiener Se dice que Z [ ] es un proceso de Wiener o movimiento Browniano si Z es una función definida en algún intervalo I = [, T ] (eventualmente puede ser T = + ),
Más detallesApuntes de Series Temporales
Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,
Más detallesEspacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21
Espacios Vectoriales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Objetivos Al finalizar este tema tendrás que: Saber si unos vectores son independientes.
Más detallesAplicación de la distribución empírica: Tests de bondad de ajuste
Aplicación de la distribución empírica: Tests de bondad de ajuste 4 de marzo de 2009 Test de bondad de ajuste Supongamos que se dispone de una m.a.s de tamaño n de una población X con distribución desconocida
Más detallesDescomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)
Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos
Más detallesTema 4. Axiomática del Cálculo de Probabilidades
Tema 4. Axiomática del Cálculo de Probabilidades mjolmo@ujaen.es Curso 2007/2008 Espacio muestral finito equiprobable El espacio muestral contiene un número finito de sucesos elementales todos ellos con
Más detallesa los anillos no conmutativos
Tema 7.- Representaciones de grupos finitos. Introducción a los anillos no conmutativos 7.1 Nociones básicas En lo que sigue, k denotará un cuerpo arbitrario y los espacios vectoriales lo serán sobre k.
Más detallesVariables Aleatorias
Variables Aleatorias Memo Garro Resumen En este artículo introduciremos un tipo específico de funciones definidas sobre la dupla (Ω F. Estas funciones son llamadas variables aleatorias y son de gran importancia
Más detallesAplicando el Axioma del Supremo
Aplicando el Axioma del Supremo Manuel Ibarra Contreras, Armando Martínez García Benemérita Universidad Autónoma de Puebla Puebla, México El objetivo de este artículo es aplicar el Axioma del Supremo para
Más detallesAnálisis Complejo: 1.2 Productos infinitos
Contents : 1.2 Productos infinitos Universidad de Murcia Curso 2011-2012 Contents 1 Productos infinitos Objetivos Productos infinitos Objetivos Objetivos Productos infinitos Objetivos Demostrar que dado
Más detallesMatrices elementales
Matrices elementales Jana Rodriguez Hertz GAL 1 IMERL 4 de abril de 2013 transformaciones elementales transformaciones elementales recordemos: transformaciones elementales llamamos transformación elemental
Más detallessi existe un entorno V de a contenido en A, tal que la diferencia f(x) f(a) no cambia de signo cuando x V :
Capítulo 7 Extremos Relativos Una aplicación clásica del Teorema Local de Taylor es el estudio de los extremos relativos de una función escalar. Aunque la analogía con el caso de una variable es total,
Más detallesTeorema de Existencia y unicidad (caso n-dimensional).
Teorema de Existencia y unicidad (caso n-dimensional). Sea U R n un conjunto abierto y V R un intervalo abierto en R. Considere la aplicación v : V U R n diferenciable con derivada continua en una vecindad
Más detallesMaestría en Bioinformática Probabilidad y Estadística: Clase 13
Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models
Más detallesEjercicios de teoría de la medida
Ejercicios de teoría de la medida Pedro Alegría Capítulo. Dada una aplicación F : Ω Ω, demostrar que: a) Si A es una σ-álgebra de Ω, A = {B Ω : F B) A} lo es de Ω. b) Si A es una σ-álgebra de Ω, A = F
Más detallesVECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar
Más detallesRango de una matriz. Jana Rodriguez Hertz GAL 1. 2 de abril de 2013 IMERL
Rango de una matriz Jana Rodriguez Hertz GAL IMERL 2 de abril de 203 rango rango recordemos: rango si A = {A, A 2,..., A n } conjunto de vectores de K n llamamos rango(a) a la máxima cantidad de vectores
Más detalles