Nicolás Rivera. 20 de Marzo de 2012

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Nicolás Rivera. 20 de Marzo de 2012"

Transcripción

1 Gramáticas Libre de Contexto Aleatorias. Nicolás Rivera 20 de Marzo de 2012 Pontificia Universidad Católica de Chile

2 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades

3 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades 2 Frecuencia Relativa de Producciones Distribuciones Propias Un poco de Estadística: Método Frecuencia Relativa Algunas propiedades

4 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades 2 Frecuencia Relativa de Producciones Distribuciones Propias Un poco de Estadística: Método Frecuencia Relativa Algunas propiedades 3 Distribuciones de Gibbs

5 Tabla de Contenidos 1 Introducción Gramáticas Libres de Contexto Sistema de Producción de Probabilidades 2 Frecuencia Relativa de Producciones Distribuciones Propias Un poco de Estadística: Método Frecuencia Relativa Algunas propiedades 3 Distribuciones de Gibbs 4 Resumen

6 Introducción Gramáticas Libres de Contexto Definición (Gramática Libre de Contexto) Una Gramática Libre de Contexto es una cuádrupla G = (V, T, P, S), donde V son las variables, T el conjunto de terminales, P las producciones y S V la variable inicial.

7 Introducción Gramáticas Libres de Contexto Definición (Gramática Libre de Contexto) Una Gramática Libre de Contexto es una cuádrupla G = (V, T, P, S), donde V son las variables, T el conjunto de terminales, P las producciones y S V la variable inicial. Asumiremos que V, T, P son finitos. Ejemplo: G = ({S}, {s}, {S s, S SS}, S)

8 Introducción Gramáticas Libres de Contexto Recordemos que la derivación de una palabra puede ser representada por un árbol τ.

9 Introducción Gramáticas Libres de Contexto Recordemos que la derivación de una palabra puede ser representada por un árbol τ. Sea Ω el conjunto de todos los árboles de derivación τ con raíz S. (finitos)

10 Introducción Gramáticas Libres de Contexto Recordemos que la derivación de una palabra puede ser representada por un árbol τ. Sea Ω el conjunto de todos los árboles de derivación τ con raíz S. (finitos) Para cada árbol τ definimos f (A α; τ) como el número de veces que la producción A α aparece en τ y f (A; τ) el número de apariciones de la variable A τ, es decir: f (A; τ) = f (A α; τ) α (N T ) A α

11 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales.

12 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales. Definimos τ, el tamaño de τ como el número total de nodos no terminales en τ.

13 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales. Definimos τ, el tamaño de τ como el número total de nodos no terminales en τ. Finalmente, denotamos por γ a las palabras en (V T ).

14 Introducción Gramáticas Libres de Contexto Definimos h(τ), la altura de τ, como la cantidad de vértices no terminales (variables) en el camino más largo entre la raíz de τ y sus vértices no terminales. Definimos τ, el tamaño de τ como el número total de nodos no terminales en τ. Finalmente, denotamos por γ a las palabras en (V T ). Por otra parte definimos n(a; γ) como el número de ocurrencias de A en γ y denotamos por γ al largo de γ.

15 Introducción Gramáticas Libres de Contexto Símbolo Significado τ árbol Ω conjunto de árboles de derivación con raíz S f (A α; τ) cantidad de veces que aparece A α en τ f (A) cantidad de veces que aparece A en τ h(τ) altura del árbol (contando solo vértices no terminales) τ cantidad de vértices no terminales en τ γ palabra en (V T ) γ largo de γ

16 Introducción Sistema de Producción de Probabilidades Sistema de Producción de Probabilidades

17 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1.

18 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1.

19 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1. Es fácil comprobar que dado un árbol de tamaño finito τ,

20 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1. Es fácil comprobar que dado un árbol de tamaño finito τ, P(τ) = p(a α) f (A α;τ) A α

21 Introducción Sistema de Producción de Probabilidades Definición (Sistema de Producción de Probabilidades) Un Sistema de Producción de Probabilidades de G es una función p : P [0, 1] tal que para todo A V se tiene que α:a α P p(a α) = 1. Esto define una probabilidad P sobre los árboles de derivación (incluso infinitos!) 1. Es fácil comprobar que dado un árbol de tamaño finito τ, P(τ) = A α p(a α) f (A α;τ) A la construcción anterior la llamamos una GLCA.

22 Introducción Sistema de Producción de Probabilidades Notemos que lo anterior no solo puede usarse para definir una probabilidad sobre Ω, sino que sobre Ω A, el conjunto de todos los árboles de derivación que comienzan en A (A V ). Denotamos P A cuando nos referimos a la probabilidad sobre Ω A y seguimos usando P para P S.

23 Introducción Sistema de Producción de Probabilidades Notemos que lo anterior no solo puede usarse para definir una probabilidad sobre Ω, sino que sobre Ω A, el conjunto de todos los árboles de derivación que comienzan en A (A V ). Denotamos P A cuando nos referimos a la probabilidad sobre Ω A y seguimos usando P para P S. Sea g una función g : Ω R, definimos la esperanza de g por E(g) = τ Ω g(τ)p(τ). De forma análoga se define E A para funciones g : Ω A R.

24 Introducción Sistema de Producción de Probabilidades Símbolo Significado Ω conjunto de árboles de derivación con raíz S Ω A conjunto de árboles de derivación con raíz A (A V ) P probabilidad sobre Ω creada a partir de p P A probabilidad sobre Ω A E esperanza sobre Ω E A esperanza sobre Ω A

25 Frecuencia Relativa de Producciones Frecuencia Relativa de Producciones

26 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1.

27 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1. Por ejemplo: en G = ({S}, {s}, {S s, S SS}, S) consideremos p por p(s s) = 1 q y p(s SS) = q con q [0, 1] si τ es un árbol aleatorio en Ω entonces

28 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1. Por ejemplo: en G = ({S}, {s}, {S s, S SS}, S) consideremos p por p(s s) = 1 q y p(s SS) = q con q [0, 1] si τ es un árbol aleatorio en Ω entonces P( τ < ) = P( τ < ) 2 p(s SS) + p(s s) = P( τ < ) 2 q + (1 q).

29 Frecuencia Relativa de Producciones Distribuciones Propias Diremos que la medida de probabilidad P definida por p es propia si la probabilidad se concentra solo en árboles τ con τ <, es decir P(Ω) = 1. Por ejemplo: en G = ({S}, {s}, {S s, S SS}, S) consideremos p por p(s s) = 1 q y p(s SS) = q con q [0, 1] si τ es un árbol aleatorio en Ω entonces P( τ < ) = P( τ < ) 2 p(s SS) + p(s s) = P( τ < ) 2 q + (1 q). La ecuación anterior tiene dos soluciones para P( τ < ), 1 y 1/q 1. Se puede mostrar que la solución adecuada es P( τ < ) = min(1, 1/q 1) por lo tanto si q > 1/2 se impone una probabilidad impropia.

30 Frecuencia Relativa de Producciones Distribuciones Propias Nuestro objetivo es construir buenas funciones p.

31 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p.

32 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p. Consideremos la muestra aleatoria de n árboles de derivación τ 1,...,τ n. Definimos el estimador 2

33 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p. Consideremos la muestra aleatoria de n árboles de derivación τ 1,...,τ n. Definimos el estimador 2 ˆp(A α) = n i=1 f (A α; τ i) n i=1 f (A; τ. i)

34 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Supongamos que la gramática G es conocida, pero no la función p. Intentemos estimar p. Consideremos la muestra aleatoria de n árboles de derivación τ 1,...,τ n. Definimos el estimador 2 ˆp(A α) = n i=1 f (A α; τ i) n i=1 f (A; τ. i) Definimos por ˆP k a la probabilidad sobre Ω generada por ˆp

35 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa En general no es posible observar los árboles, sino que solo podemos observar los símbolos terminales de él (es decir, la palabra). Notemos por Y (τ) a la palabra correspondiente al árbol τ. Sean Y 1,...,Y n las palabras observadas entonces el estimador queda como

36 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa En general no es posible observar los árboles, sino que solo podemos observar los símbolos terminales de él (es decir, la palabra). Notemos por Y (τ) a la palabra correspondiente al árbol τ. Sean Y 1,...,Y n las palabras observadas entonces el estimador queda como ˆp(A α) = n i=1 Eˆp(f (A α; τ) τ Ω Yi ) n i=1 Eˆp(f (A; τ) τ Ω Yi )

37 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa En general no es posible observar los árboles, sino que solo podemos observar los símbolos terminales de él (es decir, la palabra). Notemos por Y (τ) a la palabra correspondiente al árbol τ. Sean Y 1,...,Y n las palabras observadas entonces el estimador queda como ˆp(A α) = n i=1 Eˆp(f (A α; τ) τ Ω Yi ) n i=1 Eˆp(f (A; τ) τ Ω Yi ) Lo anterior es difícil de calcular pero hay métodos numéricos que pueden ayudar. En particular 3, ˆp k+1 (A α) = n i=1 Eˆp k (f (A α; τ) τ Ω Yi ) n i=1 Eˆp k (f (A; τ) τ Ω Yi )

38 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Notemos que Eˆpk (f (A α) τ Ω Yi ) = τ Ω Yi f (A α; τ)ˆp k (τ τ Ω Yi ).

39 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Notemos que Eˆpk (f (A α) τ Ω Yi ) = τ Ω Yi f (A α; τ)ˆp k (τ τ Ω Yi ). Sean Λ el conjunto de todos los árboles de derivación que podrían pertenecer a los datos, es decir Λ = {τ : Y (τ) {Y 1,..., Y b }}

40 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Notemos que Eˆpk (f (A α) τ Ω Yi ) = τ Ω Yi f (A α; τ)ˆp k (τ τ Ω Yi ). Sean Λ el conjunto de todos los árboles de derivación que podrían pertenecer a los datos, es decir Λ = {τ : Y (τ) {Y 1,..., Y b }} Sea τ Λ, sea y = Y (τ). Definamos W (τ) = i:y i =y ˆP k (τ τ Ω y ) = i : Y i = i ˆP k (τ).

41 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Se sigue que para toda regla de producción A α, n f (A α; τ)ˆp k (τ τ Ω Yi ) = f (A α; τ)w (τ) τ Ω Yi i=1 τ Λ

42 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Se sigue que para toda regla de producción A α, n f (A α; τ)ˆp k (τ τ Ω Yi ) = f (A α; τ)w (τ) τ Ω Yi i=1 τ Λ y por lo tanto ˆp k (A α) = τ Λ τ Λ f (A α; τ)w (τ) f (A; τ)w (τ)

43 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G.

44 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G. Primero consideramos un conjunto finito Λ Ω, tal que toda regla de producción aparezca en algún árbol en Λ, luego asignamos a cada árbol un peso W (τ) tal que τ Λ W (τ) = 1.

45 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G. Primero consideramos un conjunto finito Λ Ω, tal que toda regla de producción aparezca en algún árbol en Λ, luego asignamos a cada árbol un peso W (τ) tal que τ Λ W (τ) = 1. y finalmente definimos p como τ Λ f (A α; τ)w (τ) p(a α) = τ Λ f (A; τ)w (τ).

46 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Inspirandonos en lo anterior definimos un procedimiento simple para la construcción de un sistema de producción de probabilidades para una GLC G. Primero consideramos un conjunto finito Λ Ω, tal que toda regla de producción aparezca en algún árbol en Λ, luego asignamos a cada árbol un peso W (τ) tal que τ Λ W (τ) = 1. y finalmente definimos p como τ Λ f (A α; τ)w (τ) p(a α) = τ Λ f (A; τ)w (τ). El método anterior es llamado Método de Frecuencia Relativa

47 Frecuencia Relativa de Producciones Un poco de Estadística: Método Frecuencia Relativa Teorema Si todos los elementos de T aparecen en algún árbol de Λ y todas las producciones tienen probabilidades positivas, entonces el método de frecuencia relativa impone una distribución propia sobre Ω. Corolario Bajo las condiciones anteriores, para todo A V el método de frecuencia relativa impone una distribución propia sobre Ω A. Demostración: Pizarra.

48 Frecuencia Relativa de Producciones Algunas propiedades Un poco de notación. Dados Λ = {τ 1,..., τ n }, definimos F (A α) = τ Λ f (A λ; τ)w (τ),

49 Frecuencia Relativa de Producciones Algunas propiedades Un poco de notación. Dados Λ = {τ 1,..., τ n }, definimos F (A α) = τ Λ f (A λ; τ)w (τ), y F (A) = F (A α) = f (A; τ)w (τ), α:a α τ Λ

50 Frecuencia Relativa de Producciones Algunas propiedades Un poco de notación. Dados Λ = {τ 1,..., τ n }, definimos F (A α) = τ Λ f (A λ; τ)w (τ), y por lo tanto F (A) = α:a α F (A α) = τ Λ p(a α) = F (A α), F (A) f (A; τ)w (τ),

51 Frecuencia Relativa de Producciones Algunas propiedades Teorema Supongamos que todos las producciones de P de la gramática G aparecen en algún árbol de τ y supongamos que W (τ) > 0 para todo τ Λ, entonces y supongamos además que p fue asignada con el método de frecuencia relativa, entonces si Υ es un árbol aleatorio entonces E(f (A α; Υ)) = τ Λ f (A α; τ)w (τ) Demostración: Pizarra.

52 Frecuencia Relativa de Producciones Algunas propiedades Sea P la probabilidad inducida por el método de frecuencia relativa. La entropía de P es H(P) = τ Ω 1 P(τ) log(p(τ))

53 Frecuencia Relativa de Producciones Algunas propiedades Sea P la probabilidad inducida por el método de frecuencia relativa. La entropía de P es H(P) = τ Ω 1 P(τ) log(p(τ)) Teorema H(P) = A α P 1 F (A α) log( F (A α) ) 1 F (A) log( F (A) A V Demostración: Pizarra.

54 Frecuencia Relativa de Producciones Algunas propiedades Diremos que M es la matríz de media de una GMLA si M es una matriz de V x V donde M(A, B) es el promedio de variables B resultantes de expandir A, es decir

55 Frecuencia Relativa de Producciones Algunas propiedades Diremos que M es la matríz de media de una GMLA si M es una matriz de V x V donde M(A, B) es el promedio de variables B resultantes de expandir A, es decir M(A, B) = p(a α)n(b; α), α:a α

56 Frecuencia Relativa de Producciones Algunas propiedades Diremos que M es la matríz de media de una GMLA si M es una matriz de V x V donde M(A, B) es el promedio de variables B resultantes de expandir A, es decir M(A, B) = p(a α)n(b; α), α:a α donde n(b; α) es la cantidad de veces que aparece B en α.

57 Frecuencia Relativa de Producciones Algunas propiedades Una herramienta útil:

58 Frecuencia Relativa de Producciones Algunas propiedades Una herramienta útil: Teorema (Perron-Frobenius) Sea M una matriz cuadrada no negativa. Entonces 1 Existe un valor propio no negativo ρ = ρ(m) tal que ningún valor propio de A tiene valor absoluto más grande que ρ. 2 El vector propio asociado a ρ tiene componentes no negativas. 3 Si M es irreducible, es decir, para todo i, j existe n tal que M (n) (i, j) > 0, entonces ρ es único y su vector propio es estrictamente positivo. Estudiaremos ρ y su relación con las GLCA.

59 Frecuencia Relativa de Producciones Algunas propiedades La norma de una matriz está dada po M = sup v =1 M v. Otro útil resultado es Lema ĺım n M(n) 1/n = ρ(m). Teorema Sea M la matriz de media de una GLCA, si ρ(m) < 1 entonces para cada m N se tiene que E( τ m ) < Demostración: Pizarra.

60 Frecuencia Relativa de Producciones Algunas propiedades Teorema Si p es asignada por el método de frecuencia relativa entonces la matriz de media M de la GLCA cumple con ρ(m) < 1. Demostración: Pizarra.

61 Distribuciones de Gibbs Una distribución de Gibbs sobre los árboles de derivación tiene la siguiente forma: P(τ) = eλ U(τ) Z λ,

62 Distribuciones de Gibbs Una distribución de Gibbs sobre los árboles de derivación tiene la siguiente forma: P(τ) = eλ U(τ) Z λ, donde λ y U(τ) son vectores de la misma dimensión y λ U(τ) es su producto interno. Por otra parte Z λ = τ Ω eλ U(τ).

63 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA.

64 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA. Consideremos 1 U(τ) = f (τ) = {f (A α; τ)} (A α) P 2 λ A α = log(p(a α)) Entonces si p forma una distribución propia P, se tiene que

65 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA. Consideremos 1 U(τ) = f (τ) = {f (A α; τ)} (A α) P 2 λ A α = log(p(a α)) Entonces si p forma una distribución propia P, se tiene que Z λ = exp {λ f (τ)} = P(τ) = 1 τ Ω τ Ω

66 Distribuciones de Gibbs Mostraremos que una distribución de Gibbs es más general que una GLCA. Consideremos 1 U(τ) = f (τ) = {f (A α; τ)} (A α) P 2 λ A α = log(p(a α)) Entonces si p forma una distribución propia P, se tiene que Z λ = τ Ω exp {λ f (τ)} = τ Ω P(τ) = 1 y luego P(τ) = A α p(a α) f (A α;τ) = = exp log(p(a α))f (A α; τ) = exp{λ f (τ)}. (A α) P

67 Distribuciones de Gibbs Lo anterior sirve para normalizar gramáticas, es decir, convertir GLCA impropias en propias.

68 Distribuciones de Gibbs Lo anterior sirve para normalizar gramáticas, es decir, convertir GLCA impropias en propias. Si P es una probabilidad impropia, es decir P(Ω) < 1 entonces definimos

69 Distribuciones de Gibbs Lo anterior sirve para normalizar gramáticas, es decir, convertir GLCA impropias en propias. Si P es una probabilidad impropia, es decir P(Ω) < 1 entonces definimos P(τ) = P(τ) P(Ω).

70 Distribuciones de Gibbs Con lo anterior vimos como construir una distribución de Gibbs dada la GLCA. De la misma forma, sí la distribución de Gibbs tiene la forma vista en la parte anterior entonces forma una GLCA.

71 Distribuciones de Gibbs Con lo anterior vimos como construir una distribución de Gibbs dada la GLCA. De la misma forma, sí la distribución de Gibbs tiene la forma vista en la parte anterior entonces forma una GLCA. Lo anterior tiene una aplicación. Sea una GLCA con P impropia, es decir P(Ω) < 1. Luego P(τ) = P(τ) P(Ω), es una normalización de P. En general se puede normalizar de la misma forma P A.

72 Distribuciones de Gibbs Teorema (Normalización) Supuponga que las probabilidades de producción impuestas por p impropia son positivas para toda regla de producción. Entonces el sistema de producción de probabilidades normalizado p se induce por p(a α) = 1 P(Ω A ) p(a α) P(Ω B ) n(b;α). B V Entonces p induce una GLCA propia.

73 Resumen Resumen. Vimos que es una GLCA.

74 Resumen Resumen. Vimos que es una GLCA. Construimos una clase particular de GLCA basadas en la intuición estadística.

75 Resumen Resumen. Vimos que es una GLCA. Construimos una clase particular de GLCA basadas en la intuición estadística. Estudiamos dicha gramática desde el punto de vista anaĺıtico.

76 Resumen Resumen. Vimos que es una GLCA. Construimos una clase particular de GLCA basadas en la intuición estadística. Estudiamos dicha gramática desde el punto de vista anaĺıtico. Vimos un tipo de distribución más general que las GLCA, las distribuciones de Gibbs.

77 Resumen Qué hay más adelante? Estudiar las GLCA de forma general.

78 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites.

79 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites. Tener más tipo de estadísticas para las GLCA

80 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites. Tener más tipo de estadísticas para las GLCA Estudio algorítmico de las gramáticas.

81 Resumen Qué hay más adelante? Estudiar las GLCA de forma general. Resultados ĺımites. Tener más tipo de estadísticas para las GLCA Estudio algorítmico de las gramáticas. Aplicaciones.

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Expresiones Regulares y Gramáticas Regulares

Expresiones Regulares y Gramáticas Regulares y Gramáticas Regulares Sistemas Lineales. Universidad de Cantabria Esquema Idea 1 Idea 2 3 Problema Idea Nos preguntamos si las expresiones regulares generan los mismos lenguajes que las gramáticas regulares.

Más detalles

Ciencias de la Computación I

Ciencias de la Computación I Ciencias de la Computación I Gramáticas Libres del Contexto y Lenguajes Libres del Contexto Gramáticas Formales Una gramática formal es una cuadrupla G = (N, T, P, S) N = conjunto finito de símbolos no

Más detalles

MMAF: Espacios normados y espacios de Banach

MMAF: Espacios normados y espacios de Banach MMAF: Espacios normados y espacios de Banach Licenciatura en Estadística R. Álvarez-Nodarse Universidad de Sevilla Curso 2011/2012 Espacios vectoriales Definición Sea V un conjunto de elementos sobre el

Más detalles

Los Axiomas de Kolmogorov. Parte II.

Los Axiomas de Kolmogorov. Parte II. Los Axiomas de Kolmogorov. Parte II. 1 Sucesiones infinitas de Eventos y el problema de la Medida de Probabilidad Hasta el momento hemos estudiado modelos de probabilidad cuya clase de eventos incluye

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 08-2 SEMANA 7: ESPACIOS VECTORIALES 3.5. Generadores de un espacio vectorial Sea V un espacio vectorial

Más detalles

Método de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011

Método de Newton. Cálculo numérico. Notas de clase. 25 de abril, 2011 Método de Newton Cálculo numérico. Notas de clase. 25 de abril, 2011 La resolución de sistemas de ecuaciones algebraicas no lineales de la forma F(x) = 0, F : R n R n, (1) en donde F es una función continua

Más detalles

Una invitación al estudio de las cadenas de Markov

Una invitación al estudio de las cadenas de Markov Una invitación al estudio de las cadenas de Markov Víctor RIVERO Centro de Investigación en Matemáticas A. C. Taller de solución de problemas de probabilidad, 21-25 de Enero de 2008. 1/ 1 Potencias de

Más detalles

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de

Más detalles

Diferenciciación en R n

Diferenciciación en R n Diferenciciación en R n R. Álvarez-Nodarse Universidad de Sevilla Cómo definir la derivada? Definición Sea A un abierto de R n, a A y f : A R n R m. La derivada parcial i-ésima (1 i n) de f en a se define

Más detalles

10. Series de potencias

10. Series de potencias FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 7-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San

Más detalles

El espacio euclideano

El espacio euclideano Capítulo 1 El espacio euclideano 1. Definiciones básicas El espacio Euclideano, denotado por R n, está definido por el conjunto (1.1) R n = {x = (x 1, x 2,..., x n ) : x i R}. Es decir, R n es efectivamente

Más detalles

6. Ortogonalidad. Universidad de Chile Conjuntos ortogonales y ortonormales. Ingeniería Matemática SEMANA 12: ORTOGONALIDAD

6. Ortogonalidad. Universidad de Chile Conjuntos ortogonales y ortonormales. Ingeniería Matemática SEMANA 12: ORTOGONALIDAD FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 7- SEMANA : ORTOGONALIDAD 6 Ortogonalidad 6 Conjuntos ortogonales y ortonormales Recordemos que la proyección de u sobre v

Más detalles

Introducción a los Procesos de Poisson *

Introducción a los Procesos de Poisson * Introducción a los Procesos de Poisson * Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22

Más detalles

Tema 2: Diagonalización

Tema 2: Diagonalización TEORÍA DE ÁLGEBRA II: Tema 2. DIPLOMATURA DE ESTADÍSTICA 1 Tema 2: Diagonalización 1 Introducción Sea f : R n R n lineal. Dada una base B de R n podemos asociar a f la matriz A 1 = [f, B] M n. Si C es

Más detalles

10.1 Enfoque Bayesiano del problema de la estimación

10.1 Enfoque Bayesiano del problema de la estimación Chapter 10 Estimadores de Bayes 10.1 Enfoque Bayesiano del problema de la estimación puntual Consideremos nuevamente un problema estadístico de estimación paramétrico. Se observa un vector X = X 1,...,

Más detalles

Introducción a la complejidad computacional

Introducción a la complejidad computacional Introducción a la complejidad computacional definida sobre anillos arbitrarios 18 de junio de 2016 Fuente: http://www.utmmcss.com/ Por qué otro modelo? Continuo vs discreto. Intuición interiorizada del

Más detalles

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias

Vectores Aleatorios. Definición 1.1. Diremos que el par (X,Y) es un vector aleatorio si X e Y representan variables aleatorias Universidad de Chile Facultad De Ciencias Físicas y Matemáticas MA3403 - Probabilidades y Estadística Prof. Auxiliar: Alberto Vera Azócar. albvera@ing.uchile.cl Vectores Aleatorios 1. Vectores Aleatorios

Más detalles

2.2 Normas matriciales

2.2 Normas matriciales P Castillo Capítulo 2 13 22 Normas matriciales En el caso de las matrices cuadradas de orden n la estructura algebraica es mucho más rica que la de un espacio vectorial K n ; además de tener operaciones

Más detalles

Espacios topológicos. 3.1 Espacio topológico

Espacios topológicos. 3.1 Espacio topológico Capítulo 3 Espacios topológicos 3.1 Espacio topológico Definición 3.1.1. Un espacio topológico es un par (X, τ), donde X es un conjunto, y τ es una familia de subconjuntos de X que verifica las siguientes

Más detalles

TEMA 2: SISTEMAS LINEALES. 1. Introducción Un sistema de m ecuaciones lineales con n incógnitas viene dado por a 11 x a 1n x n = b 1

TEMA 2: SISTEMAS LINEALES. 1. Introducción Un sistema de m ecuaciones lineales con n incógnitas viene dado por a 11 x a 1n x n = b 1 TEMA 2: SISTEMAS LINEALES 1 Introducción Un sistema de m ecuaciones lineales con n incógnitas viene dado por a 11 x 1 + + a 1n x n b 1 a m1 x 1 + + a mn x n b m donde a ij y b k son números reales fijos

Más detalles

Comportamiento asintótico de estimadores

Comportamiento asintótico de estimadores Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos

Más detalles

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información Patricio Parada Néstor Becerra Yoma Departamento de Ingeniería Eléctrica Universidad de Chile 18 de Noviembre de

Más detalles

Variables Aleatorias y Distribución de Probabilidades

Variables Aleatorias y Distribución de Probabilidades Variables Aleatorias y Distribución de Probabilidades Julio Deride Silva Área de Matemática Facultad de Ciencias Químicas y Farmcéuticas Universidad de Chile 27 de mayo de 2011 Tabla de Contenidos Variables

Más detalles

Hacia las Gramáticas Propias

Hacia las Gramáticas Propias Hacia las Gramáticas sin Ciclos Universidad de Cantabria Esquema 1 Introducción 2 3 Introducción Las gramáticas libres de contexto pueden presentar diferentes problemas. Ya hemos visto como eliminar los

Más detalles

1. Continuidad. Universidad de Chile Subsucesiones. Ingeniería Matemática

1. Continuidad. Universidad de Chile Subsucesiones. Ingeniería Matemática 1. Continuidad 1.1. Subsucesiones Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08- Importante: Visita regularmente http://www.dim.uchile.cl/~calculo.

Más detalles

Métodos Matemáticos: Análisis Funcional

Métodos Matemáticos: Análisis Funcional Licenciatura en Ciencias y Técnicas Estadísticas Universidad de Sevilla http://euler.us.es/ renato/clases.html Espacios eucĺıdeos Definición Se dice que un espacio vectorial E es un espacio eucĺıdeo si

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 8-7 Formas cuadráticas SEMANA 4: FORMAS CUADRÁTICAS 7 Formas cuadráticas y matrices definidas positivas

Más detalles

Análisis de Correspondencias Simple

Análisis de Correspondencias Simple 1 Capítulo 4 Análisis de Correspondencias Simple 41 INTRODUCCIÓN El Análisis de Correspondencias Simple permite describir las relaciones entre dos variables categóricas dispuestas en una tabla de contingencia

Más detalles

Por ejemplo, consideremos el experimento de lanzar una moneda. Tenemos que Ωáguila, sol. Podemos definir la variable aleatoria X como:

Por ejemplo, consideremos el experimento de lanzar una moneda. Tenemos que Ωáguila, sol. Podemos definir la variable aleatoria X como: Las variables aleatorias son una herramienta que permite traducir los posibles resultados de un experimento aleatorio en números reales. Definiremos a una variable aleatoria como una función X : Ω R tal

Más detalles

FUNCIONES MEROMORFAS. EL TEOREMA DE LOS RESIDUOS Y ALGUNAS DE SUS CONSECUENCIAS

FUNCIONES MEROMORFAS. EL TEOREMA DE LOS RESIDUOS Y ALGUNAS DE SUS CONSECUENCIAS FUNCIONES MEROMORFAS. EL TEOREMA DE LOS RESIDUOS Y ALGUNAS DE SUS CONSECUENCIAS. FUNCIONES MEROMORFAS Definición.. Se dice que una función es meromorfa en un abierto Ω de C si f es holomorfa en Ω excepto

Más detalles

Análisis de la Varianza (ANOVA) y Correlación

Análisis de la Varianza (ANOVA) y Correlación Universidad de Chile Rodrigo Assar FCFM MA34B Andrés Iturriaga DIM Víctor Riquelme Análisis de la Varianza (ANOVA) y Correlación Resumen El test ANOVA analiza la relación entre una variable numérica y

Más detalles

Una aplicación de la Teoría Ergódica en la búsqueda de Google

Una aplicación de la Teoría Ergódica en la búsqueda de Google Ergódica Una aplicación de la Ergódica en la búsqueda de Google 10 de octubre de 2009 Una aplicación de la Ergódica en la búsqueda de Google Google Ergódica Una aplicación de la Ergódica en la búsqueda

Más detalles

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM

Cadenas de Markov. Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadenas de Markov Mogens Bladt 16 de septiembre de 2017 IIMAS-UNAM Cadena de Markov Considere variable aleratorio X 0, X 1,... tomando valores en un conjunto finito o discreto, E. Entonces {X n } n 0 es

Más detalles

Deducción de las fórmulas del método del gradiente conjugado

Deducción de las fórmulas del método del gradiente conjugado Deducción de las fórmulas del método del gradiente conjugado Objetivos. Demostrar el teorema sobre los subespacios de Krylov en el método del gradiente conjugado. Requisitos. Subespacios generados por

Más detalles

Tema 12. Series numéricas Definiciones y propiedades generales Definiciones y primeros ejemplos.

Tema 12. Series numéricas Definiciones y propiedades generales Definiciones y primeros ejemplos. Tema 2 Series numéricas. 2.. Definiciones y propiedades generales. 2... Definiciones y primeros ejemplos. Definición 2... Sea {a n } una sucesión de números reales. Para cada n N, definimos n S n := a

Más detalles

Ejercicios Adicionales de Cálculo de Probabilidades LICENCIATURA EN MATEMÁTICAS. CURSO

Ejercicios Adicionales de Cálculo de Probabilidades LICENCIATURA EN MATEMÁTICAS. CURSO 1 DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA Universidad de Sevilla Ejercicios Adicionales de Cálculo de Probabilidades LICENCIATURA EN MATEMÁTICAS. CURSO 2005-2006. NOTACIONES Y NOMENCLATURA:

Más detalles

Espacios conexos. 6.1 Conexos

Espacios conexos. 6.1 Conexos Capítulo 6 Espacios conexos 6.1 Conexos Definición 6.1.1 (Conjuntos separados). Dado un espacio topológico (X, τ) y dos subconjuntos A, B X, diremos que A y B están separados si A B = A B = Es evidente

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Consistencia, Estabilidad y Convergencia

Consistencia, Estabilidad y Convergencia Consistencia, Estabilidad y Convergencia 1. étodos a un paso Para aproximar la solución x = x(t) del problema de valores iniciales (PVI) x = f(t, x) a t b x(a) = α consideramos el método numérico a un

Más detalles

Tema 5: Funciones medibles. Variables aleatorias. Función de distribución.

Tema 5: Funciones medibles. Variables aleatorias. Función de distribución. Tema 5: Funciones medibles. Variables aleatorias. Función de distribución. El concepto de variable aleatoria formaliza las magnitudes numéricas asociadas a los resultados de una experimento aleatorio.

Más detalles

Ortogonalización de Gram Schmidt

Ortogonalización de Gram Schmidt Ortogonalización de Gram Schmidt Objetivos. Estudiar el proceso de ortogonalización de Gram Schmidt que permite construir de una lista arbitraria de vectores a,..., a m una lista ortogonal b,..., b m que

Más detalles

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase

Más detalles

Una aplicación de la Teoría Ergódica en la búsqueda de Google

Una aplicación de la Teoría Ergódica en la búsqueda de Google Dónde entra la Una aplicación de la en la búsqueda de 14 de octubre de 2009 Una aplicación de la en la búsqueda de Dónde entra la Una aplicación de la en la búsqueda de Dónde entra la Qué es el PageRank?

Más detalles

Grupos libres. Presentaciones.

Grupos libres. Presentaciones. S _ Tema 12.- Grupos libres. Presentaciones. 12.1 Grupos libres. En el grupo Z de los enteros vimos una propiedad (cf. ejemplos.5), que lo caracteriza como grupo libre. Lo enunciamos al modo de una Propiedad

Más detalles

Métodos Multipaso lineales

Métodos Multipaso lineales Elementos de Cálculo Numérico - Cálculo Numérico Segundo Cuatrimestre de 2008 (FCEN - UBA) Métodos Multipaso lineales Consideramos el problema de valores iniciales (PVI) y = f(x, y) a x b y(a) = α Dado

Más detalles

: k }, es decir. 2 k. k=0

: k }, es decir. 2 k. k=0 FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Cálculo Diferencial e Integral 08-2 Basado en el apunte del curso Cálculo (2do semestre), de Roberto Cominetti, Martín Matamala y Jorge San

Más detalles

Práctica 5 Martingalas a tiempo discreto

Práctica 5 Martingalas a tiempo discreto Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.

Más detalles

Espacios vectoriales

Espacios vectoriales CAPíTULO 2 Espacios vectoriales 1. Definición de espacio vectorial Es frecuente representar ciertas magnitudes físicas (velocidad, fuerza,...) mediante segmentos orientados o vectores. Dados dos de tales

Más detalles

Trascendencia y Schneider-Lang

Trascendencia y Schneider-Lang Trascendencia y Schneider-Lang Seminario de Teoría de Números Nicolás Vilches (PUC) Abril 20 de 2018 Números algebraicos y trascendentes Definición Decimos que un α C es algebraico si existe un polinomio

Más detalles

Cálculo Numérico III Curso 2010/11

Cálculo Numérico III Curso 2010/11 Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los

Más detalles

1. Campos vectoriales y formas diferenciales

1. Campos vectoriales y formas diferenciales Capítulo Orientación. Campos vectoriales formas diferenciales En este capítulo introduciremos el concepto de orientación, mu importante en el análisis de variedades, en particular la teoriá de integración.

Más detalles

Introducción. Capítulo Introducción. Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos

Introducción. Capítulo Introducción. Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos Capítulo 1 Introducción 1.1. Introducción Sea {X n, n 1} una sucesión de v.a.i.i.d. con f.d. común F y definamos La distribución de esta variable aleatoria es Definimos M n = máx i n X i. P (M n x) = P

Más detalles

Clasificación Supervisada

Clasificación Supervisada Clasificación Supervisada Ricardo Fraiman 26 de abril de 2010 Resumen Reglas de Clasificación Resumen Reglas de Clasificación Descripción del problema Muestra de entrenamiento (X 1, Y 1 ),..., (X n, Y

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística UNSL Probabilidad A Priori y Habemus Página!!! probabilidadyestadisticaunsl.weebly.com Introducción Probabilidad A Priori Ya hemos visto cómo definir una distribución de probabilidad sobre una familia

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 10

Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Maestría en Bioinformática Probabilidad y Estadística: Clase 10 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Procesos aleatorios

Más detalles

Diagonalización de matrices

Diagonalización de matrices Diagonalización de matrices María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Diagonalización de matrices Matemáticas I 1 / 22 Valores y vectores propios de una matriz Definición

Más detalles

Las Gramáticas LL. Gramáticas con Parsing Eficiente. Universidad de Cantabria

Las Gramáticas LL. Gramáticas con Parsing Eficiente. Universidad de Cantabria Las (k) Las Gramáticas con Parsing Eficiente Universidad de Cantabria Outline Las (k) 1 Las (k) 2 3 Las (k) Formalizalización del Concepto LL Definición Una gramática libre de contexto G = (V, Σ, Q 0,

Más detalles

Descomposición del valor singular y sus aplicaciones

Descomposición del valor singular y sus aplicaciones 7 Descomposición del valor singular y sus aplicaciones Marlene J. Soldevilla Olivares William C. Echegaray Castillo Resumen El presente trabajo damos algunas propiedades de los valores singulares de una

Más detalles

Hacia las Gramáticas Propias II

Hacia las Gramáticas Propias II Hacia las Hacia las II Gramáticas sin Ciclos Universidad de Cantabria Outline Hacia las 1 Hacia las 2 3 Definición Hacia las Definición Diremos que una gramática libre de contexto G := (V, Σ, Q 0, P) es

Más detalles

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Gustavo Rodríguez Gómez. Agosto Dicembre 2011 Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 44 Capítulo III Descomposición de Matrices 2 / 44 1 Descomposición de Matrices Notación Matrices Operaciones con Matrices 2

Más detalles

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74 Índice 1. Introducción al R 15 1.1. Introducción............................. 15 1.2. El editor de objetos R....................... 18 1.3. Datos en R............................. 19 1.3.1. Vectores...........................

Más detalles

Métodos Matemáticos: Análisis Funcional

Métodos Matemáticos: Análisis Funcional Licenciatura en Ciencias y Técnicas Estadísticas Universidad de Sevilla http://euler.us.es/ renato/clases.html Qué son esos espacios de Hilbert? Qué son esos espacios de Hilbert? David Hilbert Para relajarnos

Más detalles

Procesos estocásticos Sesión 4. Cadenas de Markov

Procesos estocásticos Sesión 4. Cadenas de Markov Procesos estocásticos Sesión 4. Cadenas de Markov Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Probabilidades de retorno

Más detalles

Un elemento de un monoide se dice que es inversible si tiene elemento inverso.

Un elemento de un monoide se dice que es inversible si tiene elemento inverso. Tema 1: Semigrupos 1 Tema 1: Semigrupos 1. Semigrupos: Conceptos fundamentales. Recordemos que un sistema algebraico es un conjunto S con una o varias operaciones sobre él, siendo una operación ó ley de

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Propiedades de lenguajes independientes del contexto

Propiedades de lenguajes independientes del contexto Capítulo 12. Propiedades de lenguajes independientes del contexto 12.1. Identificación de lenguajes independientes del contexto Lema de bombeo. 12.2. Propiedades Cierre, Complemento de lenguajes, Sustitución,

Más detalles

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo

Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Curso: Métodos de Monte Carlo Unidad 3, Sesión 7: Problemas de conteo Departamento de Investigación Operativa Instituto de Computación, Facultad de Ingeniería Universidad de la República, Montevideo, Uruguay

Más detalles

La Representación de las Gramáticas

La Representación de las Gramáticas La Representación de las Gramáticas El Generador del Lenguaje Universidad de Cantabria Esquema 1 Introducción 2 3 4 Introducción Las gramáticas libres de contexto son más generales que las gramáticas regulares.

Más detalles

Expresiones Regulares y Derivadas Formales

Expresiones Regulares y Derivadas Formales y Derivadas Formales Las Derivadas Sucesivas. Universidad de Cantabria Esquema 1 2 3 Derivadas Sucesivas Recordemos que los lenguajes de los prefijos dan información sobre los lenguajes. Derivadas Sucesivas

Más detalles

Descripción de los Lenguajes Aceptados por Autómatas

Descripción de los Lenguajes Aceptados por Autómatas Descripción de los Lenguajes Aceptados por Autómatas Los Teoremas de Kleene Universidad de Cantabria Esquema 1 2 3 Lenguajes Aceptados por Autómatas Como repaso, tenemos un problema de respuesta Si/No

Más detalles

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos.

Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos. Tema 2. Aplicaciones lineales. Diagonalización de endomorfismos. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada

Más detalles

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013 Curso Estadística Miguel Ángel Chong R. miguel@sigma.iimas.unam.mx 3 de septiembre del 013 Definamos más formalmente que entenderémos por una muestra. Definción Sea X la v.a. correspondiente a una población

Más detalles

Estructuras algebraicas

Estructuras algebraicas Semana 11[1/22] 4 de mayo de 2007 Anillos y cuerpos Semana 11[2/22] Anillos Comenzamos ahora el estudio de estructuras algebraicas que tengan definidas dos operaciones, y las clasificaremos en anillos

Más detalles

Tema 6: Funciones de varias variables

Tema 6: Funciones de varias variables Tema 6: Funciones de varias variables de febrero de 6 Preliminares: derivadas parciales. Sea F una función de dos variables, como por ejemplo la función definida por F(x; y) = x y 3 Podemos derivarla con

Más detalles

Límite superior y límite inferior de una sucesión

Límite superior y límite inferior de una sucesión Límite superior y límite inferior de una sucesión Objetivos. Definir las nociones de los límites superior e inferior de una sucesión y estudiar sus propiedades básicas. Requisitos. Supremo e ínfimo de

Más detalles

Matemática Avanzada. Clase Nro. 1. Octavio Miloni. Clase Nro. 1. Facultad de Cs. Astronómicas y Geofísicas - Universidad Nacional de La Plata

Matemática Avanzada. Clase Nro. 1. Octavio Miloni. Clase Nro. 1. Facultad de Cs. Astronómicas y Geofísicas - Universidad Nacional de La Plata Facultad de Cs. Astronómicas y Geofísicas - Universidad Nacional de La Plata 1. Repaso de Espacios Vectoriales Dado un conjunto V de elementos y un conjunto numérico (que sea cuerpo) K (en general vamos

Más detalles

Mariano Suárez-Alvarez. 7 de mayo, Límites superiores y límites inferiores

Mariano Suárez-Alvarez. 7 de mayo, Límites superiores y límites inferiores ĺımsup y ĺıminf Mariano Suárez-Alvarez 7 de mayo, 2013 1.1. Definiciones 1. Límites superiores y límites inferiores 1.1. Sea (a n ) n 1 una sucesión de números reales que es acotada superiormente. Si para

Más detalles

Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares).

Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares). Capítulo 6 Espacios Vectoriales 6.1 Definiciones Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares). Definición 6.1.1 Se dice que

Más detalles

Eliminación de Símbolos Inútiles

Eliminación de Símbolos Inútiles Eliminación de Símbolos Inútiles Veremos cómo eliminar los símbolos inútiles de una gramática. Lo haremos con dos algoritmos, que son definidos en la demostración de los siguientes lemas. Lema 1 Dada una

Más detalles

2. CONSTRUCCIÓN DE MEDIDAS.

2. CONSTRUCCIÓN DE MEDIDAS. 2. CONSTRUCCIÓN DE MEDIDAS. 1. MEDIDAS EXTERIORES. (2,1,1) Definición. Una medida exterior es una aplicación µ : P(X) [0, + ] que cumple: (a) µ ( ) = 0. (b) Monotonía: Si A B, entonces µ (A) µ (B). (c)

Más detalles

Movimiento Browniano o proceso de Wiener

Movimiento Browniano o proceso de Wiener 1 Movimiento Browniano o proceso de Wiener Se dice que Z [ ] es un proceso de Wiener o movimiento Browniano si Z es una función definida en algún intervalo I = [, T ] (eventualmente puede ser T = + ),

Más detalles

Apuntes de Series Temporales

Apuntes de Series Temporales Apuntes de Series Temporales David Rodríguez 7 de Noviembre de 2009. Modelos de Series Temporales Modelo AR() El modelo AutoRegresivo AR() es un proceso aleatorio de la forma X t = ϕx t + σϵ t, ϵ t N (0,

Más detalles

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Espacios Vectoriales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21 Objetivos Al finalizar este tema tendrás que: Saber si unos vectores son independientes.

Más detalles

Aplicación de la distribución empírica: Tests de bondad de ajuste

Aplicación de la distribución empírica: Tests de bondad de ajuste Aplicación de la distribución empírica: Tests de bondad de ajuste 4 de marzo de 2009 Test de bondad de ajuste Supongamos que se dispone de una m.a.s de tamaño n de una población X con distribución desconocida

Más detalles

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar)

Descomposición en valores singulares Notas para los cursos 21 y 22 (J.L. Mancilla Aguilar) Valores Singulares Descomposición en valores singulares Notas para los cursos y (JL Mancilla Aguilar) Tanto los valores singulares como la descomposición en valores singulares de una matriz son conceptos

Más detalles

Tema 4. Axiomática del Cálculo de Probabilidades

Tema 4. Axiomática del Cálculo de Probabilidades Tema 4. Axiomática del Cálculo de Probabilidades mjolmo@ujaen.es Curso 2007/2008 Espacio muestral finito equiprobable El espacio muestral contiene un número finito de sucesos elementales todos ellos con

Más detalles

a los anillos no conmutativos

a los anillos no conmutativos Tema 7.- Representaciones de grupos finitos. Introducción a los anillos no conmutativos 7.1 Nociones básicas En lo que sigue, k denotará un cuerpo arbitrario y los espacios vectoriales lo serán sobre k.

Más detalles

Variables Aleatorias

Variables Aleatorias Variables Aleatorias Memo Garro Resumen En este artículo introduciremos un tipo específico de funciones definidas sobre la dupla (Ω F. Estas funciones son llamadas variables aleatorias y son de gran importancia

Más detalles

Aplicando el Axioma del Supremo

Aplicando el Axioma del Supremo Aplicando el Axioma del Supremo Manuel Ibarra Contreras, Armando Martínez García Benemérita Universidad Autónoma de Puebla Puebla, México El objetivo de este artículo es aplicar el Axioma del Supremo para

Más detalles

Análisis Complejo: 1.2 Productos infinitos

Análisis Complejo: 1.2 Productos infinitos Contents : 1.2 Productos infinitos Universidad de Murcia Curso 2011-2012 Contents 1 Productos infinitos Objetivos Productos infinitos Objetivos Objetivos Productos infinitos Objetivos Demostrar que dado

Más detalles

Matrices elementales

Matrices elementales Matrices elementales Jana Rodriguez Hertz GAL 1 IMERL 4 de abril de 2013 transformaciones elementales transformaciones elementales recordemos: transformaciones elementales llamamos transformación elemental

Más detalles

si existe un entorno V de a contenido en A, tal que la diferencia f(x) f(a) no cambia de signo cuando x V :

si existe un entorno V de a contenido en A, tal que la diferencia f(x) f(a) no cambia de signo cuando x V : Capítulo 7 Extremos Relativos Una aplicación clásica del Teorema Local de Taylor es el estudio de los extremos relativos de una función escalar. Aunque la analogía con el caso de una variable es total,

Más detalles

Teorema de Existencia y unicidad (caso n-dimensional).

Teorema de Existencia y unicidad (caso n-dimensional). Teorema de Existencia y unicidad (caso n-dimensional). Sea U R n un conjunto abierto y V R un intervalo abierto en R. Considere la aplicación v : V U R n diferenciable con derivada continua en una vecindad

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 13

Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Maestría en Bioinformática Probabilidad y Estadística: Clase 13 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Mayo de 2010 Contenidos 1 Hidden Markov Models

Más detalles

Ejercicios de teoría de la medida

Ejercicios de teoría de la medida Ejercicios de teoría de la medida Pedro Alegría Capítulo. Dada una aplicación F : Ω Ω, demostrar que: a) Si A es una σ-álgebra de Ω, A = {B Ω : F B) A} lo es de Ω. b) Si A es una σ-álgebra de Ω, A = F

Más detalles

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar

Más detalles

Rango de una matriz. Jana Rodriguez Hertz GAL 1. 2 de abril de 2013 IMERL

Rango de una matriz. Jana Rodriguez Hertz GAL 1. 2 de abril de 2013 IMERL Rango de una matriz Jana Rodriguez Hertz GAL IMERL 2 de abril de 203 rango rango recordemos: rango si A = {A, A 2,..., A n } conjunto de vectores de K n llamamos rango(a) a la máxima cantidad de vectores

Más detalles