Modelos estadísticos y la entropía del lenguaje. Dr. Luis Alberto Pineda Cortés

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Modelos estadísticos y la entropía del lenguaje. Dr. Luis Alberto Pineda Cortés"

Transcripción

1 Modelos estadísticos y la entropía del lenguaje Dr. Luis Alberto Pineda Cortés

2 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

3 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

4 Teoría de la probabilidad: Variables Random Evento: Tirar una moneda al aire diagnosticar a un enfermo Apuntar al azar a una palabra en un texto Resultado del evento: variable random X propiamente Que salga una cara de la moneda Que se detecte una enfermedad Se escoge una palabra en particular Posibles resultados: rango de la variable random o V(X) V(X) = {águila, sol} V(X) = {viruela, varisela, paperas} V(X) = el conjunto de todas las palabras del texto

5 Teoría de la probabilidad: Variables Random Notación: x es un resultado posible de X (x V(X)) Probabilidad de x: P(X = x) o P(x) Número de veces que X sale x: X = x Ejemplo: Sea W el resultado de señalar al azar un texto Sea w i la i-esima palabra del español (word type) Sea w i el número de veces que w i aparece (word tokens) Probabilidad P(W = w i ) = w i w Σ j=1 w j

6 Probabilidad condicional y secuencia de eventos Dos eventos: Seleccionar al azar dos palabras seguidas en un texto Dos variables aleatorias: W 1, W 2 Probabilidad condicional La probabilidad de que se diga casa dado que se dijo la es mucho mayor que la probabilidad que se diga correr en el mismo contexto P(W 2 = w j W 1 = w i ) = W 1 = w i, W 2, = w j W 1 = w i

7 El Teorema de Bayes A B P(A B) = P(A B) P(B) P(B A) = P(A B) P(A) P(A B) P(B) = P(A) P(B A) P(A B) = P(A) P(B A) P(B)

8 El Teorema de Bayes P(A B) = P(A) P(B A) P(B) A: conclusión (diagnóstico: el niño tiene amigdalitis) B: evidencia observable (síntomas: el niño tiene calentura) P(A): probabilidad que el niño tenga amigdalitis P(B): probabilidad que el niño tenga calentura P(B A): probabilidad que tenga calentura dado que tiene amigdalitis P(A B): probabilidad que tenga amigdalitis dado que tiene calentura

9 El Teorema de Bayes Si se require P(B), la probabilidad de la calentura, es necesario considerar todas las enfermedades que tienen calentura como síntoma La probabilidad de la calentura se puede obtener su se observa calentura dado que se tiene la enfermeda i, para toda i P(B = b) = Σ P(B = b A = a i ) P(A = a i ) a V(A)

10 Generalización del Teorema de Bayes Los eventos pueden tener diferente granularidad: x, y son ocurrencias de dos eventos de apuntar a dos palabras (i.e., x = comió carne y = el perro ) P(x y) es la probablidad de que se diga comió carne dado que se dijo el perro O cada acción puedes tomarse como eventos independientes x, y, z, w son ocurrencias de eventos de apuntar a una palabra (i.e., w = comió, x = carne, y = el y z = perro ) P(w, x y, z) = P(w, x) P(y, z w, x ) P(y, z)

11 Generalización del Teorema de Bayes La probabilidad de una secuencia de n eventos: P(w 1, w 2, w 3,..., w n ) = P(w 1 ) P(w 2 w 1 ) P(w 2 w 1,w 2 )... P(w n w 1,...,w n-1 ) La probabilidad de una secuencia de n eventos condicionada a la ocurrencia de otro evento x: P(w 1, w 2, w 3,..., w n x ) = P(w 1 x) P(w 2 w 1, x) P(w 3 w 1,w 2, x)... P(w n w 1,...,w n-1, x)

12 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

13 Modelos estadísticos Propósito: Aprender un lenguaje en base a las regularidades estadísticas observadas en un corpus Muchas regularidades irrelevantes Agredar conocimiento del lenguaje para obtener regularidades relevantes Aprender (learn) modelos estadísticos: asignar una probabilidad a todas las secuencias de palabras! Dada una secuencia de longitud n se quiere asignar un número a: P(W 1,n = w 1, n ) Para todas las secuencias w 1,n donde W 1,n es una secuencia de n variables random, W 1, W 2,..., W n cada una de las cuales toma una palabra del lenguaje

14 Modelos estadísticos La gente puede asignar probabilidades a secuencias de palabras: P(w 1,n ) = P(w 1 ) P(w 2 w 1 ) P(w 3 w 1,2 )... P(w n w 1,n-1 ) Hay experimentos que indican que la gente es más exacta que los métodos estadísticos más sofisticados! El método no depende sólo de las palabras precedentes Ejemplo: el (árbol cielo) azul P(el árbol azul) = P(el) P(árbol el) P(azul el árbol) P(el cielo azul) = P(el) P(cielo el) P(azul el cielo) Prejuicios: sólo contra los métodos rollorizados Ventajas: depende de la aplicación

15 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

16 Reconocimiento de voz P(W A) = P(W) P(A W) P(A) P(W): Modelo del lenguaje (probabilidad de que se diga W) P(A): probabilidad el sonido sea voz P(A W): Modelo acústico (probabilidad la evidencia acústica dado que se pronunció W) P(W A): Probabilidad de que se reconozca W dada la evidencia acústica. W max = max P(W A) = P(W) P(A W)

17 Procedador acústico: Evidencia acústica habla procesador de señales σ i comparador a i ρ i prototipos acústicos

18 Modelo de reconocimiento del habla (source-channel) W max = max P(W A) = P(W) P(A W) mente W generador del habla habla procesador acústico A decodificador linguístico W max Hablante Reconocedor canal acústico

19 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

20 Entropía Se define una figura de mérito para comparar modelos estadísticos: entropía entre lenguajes (cross entropy) Teoría de codificación: cuánto cuesta mandar un mensaje de un lenguaje dada una notación explícita (binario, decimal, ect.)? Problema: mandar un mensaje cada 5 minutos para informar de los ocupantes de una casa (una pareja!) de acuerdo al siguiente código Andan de vagos: 00 El hombre está en casa: 01 La mujer está en casa: 10 Los dos están en casa: 11 Si la probabilidad de cada mensaje es la misma, necesitamos dos bits... pero podemos mejorar?

21 Entropía Supongamos las siguientes probabilidades Andan de vagos:.5 El hombre está en casa (sólo):.125 La mujer está en casa (solá):.125 Los dos están en casa:.25 Mandemos los mensajes más probables con menos bits! Situación Probabilidad Código Andan de vagos:.5 0 Sólo el hombre: Sólo la mujer Los dos : Cuántos bits se necesitan en promedio? 1/2 * 1 bit + 1/4 * 2 bits + 1/8 * 3 bits + 1/8 * 3 bits = 1.75 bits!

22 Entropía Pero hay que decodificar los mensajes (cuando empizan y cuando terminan! pos. 0 pos. 1 0 (nadie) 10 (los dos) Decodificador 0 1 pos (el hombre) 111 (la mujer)

23 Entropía y variables random El mensaje en si puede considerarse como una variable random W, cuyo rango es el conjunto de posibles mensajes específicos V(W). Existe una cota mínima para codificar estos mensajes?. Definimos H(W) como la entropía de la variable random W Ejemplo: H(W) = Σ P(w) log 2 P(w) w V(W) H(W) = (1/2 * log 1/2 + 1/4 * log 1/4 + 1/8 * log 1/8 + 1/8 * log 1/8) = (1/2 * ( 1) + 1/4 * ( 2) + 1/8 * ( 3) + 1/8 * ( 3) ) = 1.75 H(W) = Σ P(w) log 2 P(w) = Σ P(w) bits-requeridos(w) w V(W) w V(W)

24 Relación entre Entropía y Codificación La entropía es la cota mínima promedio para transmitir un mensaje Es posible en la práctica estar cerca de dicha cota! Codificar cada mensaje w V(W) con log 2 P(w) La entropía es una medida de la incertidumbre del mensaje: Mientras menos bits necesitemos más seguros estamos de cuál es el mensaje Mientras más grande H más difícil de interpretar el mensaje Abreviando: H(W 1,n ) = Σ P(w 1,n ) log 2 P(w 1,n ) w V(W 1,n ) H(W 1,n ) = Σ P(w 1,n ) log 2 P(w 1,n ) w 1,n

25 Relación entre Entropía y Codificación Entropía de un mensaje de longitud n: H(W 1,n ) = Σ P(w 1,n ) log 2 P(w 1,n ) w 1,n Consideremos un sistema de reconocimiento del habla que transcribe palabras del conjunto (todas las palabras tienen la misma probabilidad): {el, un, gato, perro, comió, durmió, aquí, allá} Longitu del mensaje: n = 1 H(W 1 ) = P(el) log 2 (el) P(un) log 2 (un)... P(allá) log 2 (allá) = 8 * ( 1/8 log 2 (1/8)) = 8 * ( 1/8 * (- 3)) = 3

26 Relación entre Entropía y Codificación Entropía por palabra (donde n es la longitud del mensaje): 1/n H(W 1,n ) = 1/n Σ P(w 1,n ) log 2 P(w 1,n ) w 1,n Fuente ergódica: Entropía por palabra, cuando la longitud del mensaje tiende a infinito H(L) = lim 1/n Σ P(w 1,n ) log 2 P(w 1,n ) n w 1,n

27 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

28 Cadenas de Markov Autómatas finitos probabilisticos Como generadores: se generan cadenas con cierta probabilidad Como aceptores: asignan una probabilidad a las cadenas aceptadas Las probabilidades de salida de cada nodo suman uno 0.5 aquí 0.5 el 0.5 perro 0.5 comió 0.5 un 0.5 gato 0.5 aquí 0.5 durmió

29 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

30 Entropía por palabra: Entropía entre lenguajes: 1/n H(W 1,n ) = 1/n Σ P(w 1,n ) log 2 P(w 1,n ) w 1,n 0.5 aquí 0.5 el 0.5 perro 0.5 comió 0.5 un 0.5 gato 0.5 durmió 0.5 allá Son 16 mensajes de longitud 4: 1/n H(W 1,n ) = 1/4 * (16 * (1/2 4 log 2 (1/2 4 ))) 1/n H(W 1,n ) = 1/4 * ( 4) = 1

31 Entropía por palabra: Entropía entre lenguajes: 1/n H(W 1,n ) = 1/n Σ P(w 1,n ) log 2 P(w 1,n ) w 1,n Sin estructura: Entropía por palabra (eligiendo palabras al azar) H(W 1 ) = P(el) log 2 (el) P(un) log 2 (un)... P(allá) log 2 (allá) = 8 * ( 1/8 log 2 (1/8)) = 8 * ( 1/8 * (- 3)) = 3 Con estructura: Son 16 mensajes de longitud 4 (Cadena de Markov) 1/n H(W 1,n ) = 1/4 * (16 * (1/2 4 log 2 (1/2 4 ))) 1/n H(W 1,n ) = 1/4 * ( 4) = 1

32 Qué tan bueno es un modelo: EEL (cross entropy) Conjunto de variables random W 1,n Modelo correcto es P(w 1,n ) Modelo estimado P M (w 1,n ) Cross-Entropía del lenguaje: EEL por palabra: Diferencia: H(W 1,n, P M ) = Σ P(w 1,n ) log 2 P M (w 1,n ) w 1,n 1/n H(W 1,n, P M ) = 1/n Σ P(w 1,n ) log 2 P M (w 1,n ) w 1,n H(W 1,n ) <= H(W 1,n, P M ) Entropía entre lenguajes (cross entropy of a language) H(L, P M ) = lim 1/n Σ P(w 1,n ) log 2 P M (w 1,n ) n

33 Qué tan bueno es un modelo: EEL Cuál es la entropia del lenguaje: 0.5 el 0.5 aquí 0.5 perro 0.5 comió 0.5 un con respecto al lenguaje random (P M (w 1,n ) = 1/8)? 0.5 gato 0.5 allá 0.5 durmió H(W 1,n, P M ) = Σ P(w 1,n ) log 2 P M (w 1,n ) w 1,n = 16 * ( 1/2 4 * log 2 (1/8)) = 16 * ( 1/16 * (- 3)) = 3

34 Cross-entropía Cuál es la entropia por palabra de 0.5 el 0.5 aquí 0.5 perro 0.5 comió con respecto al modelo incorrecto? 0.5 un 0.75 el 0.5 gato 0.5 durmió 0.5 allá 0.75 aquí 0.75 perro 0.75 comió 0.25 un 0.25 gato 0.25 allá 0.25 durmió

35 Cross-entropía 1/n H(W 1,n, P M ) = 1/n Σ P(w 1,n ) log 2 P M (w 1,n ) w 1,n Hay 16 mensajes con distribución binomial respecto a las probabilidades de 1/4 y 3/4, por lo tanto: 1/n H(W 1,n, P M ) = 1/4 (1 * 1/24 * log 2 (1/4 4 ) + 4 * 1/2 4 * log 2 (1/4 3 * 3/4) + 6 * 1/2 4 * log 2 (1/4 2 * (3/4) 2 ) + 4 * 1/2 4 * log 2 (1/4 * (3/4) 3 ) + 1 * 1/2 4 * log 2 (3/4) 4 ) = 1.2 Comparar con la entropía por palabra del lenguaje correcto: 1/n H(W 1,n ) = 1/4 * (16 * (1/2 4 log 2 (1/2 4 ))) 1/n H(W 1,n ) = 1/4 * ( 4) = 1

36 Contenido Teoría de la probabilidad Modelos estadísticos Reconocimiento de voz Entropía (de un lenguaje) Cadenas de Markov Entropía entre lenguajes (EEL) EEL y evaluación de modelos

37 EEL y evaluación de modelos Tres modelos (1) El correcto con con structura de Markov con transiciones de 1/2 (2) El modelo con estructura de Markov, con transiciones de 1/4 y 3/4 (3) El modelo random(sin estructura) La cross-entropías de (2) y (3) con respecto a (1): H(W 1,n = 1, P M = 3) = 3 H(W 1,n = 1, P M = 2) = 1.2 La cross-entropía por palabra nos permite evaluar diferentes modelos con respecto al modelo correcto! El modelo (2) es mejor que el modelo (3)

38 EEL y evaluación de modelos Si conocemos el modelo del español o el inglés, podemos evaluar que tan buenos son nuestros modelos con: H(L, P M ) = lim 1/n Σ P(w 1,n ) log 2 P M (w 1,n ) w n 1,n Pero lo que no tenemos es precisamente un modelo del español... Sin embargo, lo podemos estimar a través de una muestra suficientemente larga! H(L, P M ) = lim 1/n Σ log 2 P M (w 1,n ) w n 1,n Si lo que queremos comparar es entre diferentes modelos, tan sólo nos interesa aquel que tenga la menor cross-entropía (P(w 1,n ) es el mismo para todos los modelos). Se require que cualquier muestra del lenguaje, si es suficientemente larga es perfecta : el lenguaje es ergódico.

39 EEL y evaluación de modelos Para crear modelos se requiere un corpus balanceado El modelo se crea con un fragmento del corpus (90%) y el resto (10%) se deja para validar el modelo Para validar hay que medir las probabilidades reales del corpus de prueba En la evaluación el modelo tiene que asignar una probabilidad al corpus de prueba similar a la probabilidad que éste realmente tiene. Si la selección del corpus para crear y evaluar el modelo es automática es posible realizar una validación cruzada. Se requiere que cualquier muestra del lenguaje, si es suficientemente larga sea perfecta : que el lenguaje sea ergódico.

40 EEL y evaluación de modelos Se requiere de un corpus real, de donde tomar datos para experimentación En inglés se cuenta con el Brown corpus Contiene aproximadamente 500 segmentos de 2000 palabras cada uno Segmentos por área: Reportajes de prensa 44 Editoriales 27 Reviews de prensa 17 Religión 17 Habilidades y pasatiempos 36 Atractivos populares 48 Literatura 75 Micelaneos 30 Escritos eruditos 80

41 FIN

Matemáticas Discretas Probabilidad

Matemáticas Discretas Probabilidad Coordinación de Ciencias Computacionales - INAOE Matemáticas Discretas Probabilidad Cursos Propedéuticos 2010 Ciencias Computacionales INAOE Teoría de Probabilidad Considero que la probabilidad representa

Más detalles

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades

Más detalles

Tema 3. Probabilidad y variables aleatorias

Tema 3. Probabilidad y variables aleatorias 1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

Teoría de la Información

Teoría de la Información Teoría de la Información - Clase práctica - Teoría de las Comunicaciones Departamento de Computación Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 12.08.2015 Teoría de las Comunicaciones

Más detalles

UNIDAD Nº2. Licenciatura en Enseñanza de la Matemática Mg. Lucía C. Sacco

UNIDAD Nº2. Licenciatura en Enseñanza de la Matemática Mg. Lucía C. Sacco UNIDAD Nº2 Unidad Nº2 Unidad Nº2: Introducción a la probabilidad. Espacios muestrales finitos. Probabilidad condicional. Modelos matemáticos. Modelos determinísticos versus métodos probabilísticos o aleatorios.

Más detalles

Sesión 2: Teoría de Probabilidad

Sesión 2: Teoría de Probabilidad Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para

Más detalles

Universidad Mariano Gálvez Estadística y probabilidad para Ingeniería Sección B. UNIDAD 2 PROBABILIDAD

Universidad Mariano Gálvez Estadística y probabilidad para Ingeniería Sección B. UNIDAD 2 PROBABILIDAD Universidad Mariano Gálvez Estadística y probabilidad para Ingeniería Sección B. UNIDAD 2 PROBABILIDAD PRESENTA DRA. EN ING. RITA VICTORIA DE LEÓN ARDÓN 2.Trabajo en equipo 3. Estudio independiente 1.

Más detalles

Unidad 5: Entropía y Fuente del Teorema de Codificación de Shannon

Unidad 5: Entropía y Fuente del Teorema de Codificación de Shannon Unidad 5: Entropía y Fuente del Teorema de Codificación de Shannon En ésta unidad empezamos a ver la teoría de la información, al cual nos permitirá aprender mas sobre las propiedades fundamentales de

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Codificación de fuentes Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 43 Agenda 1 Codificación de fuente Definiciones

Más detalles

4.12 Ciertos teoremas fundamentales del cálculo de probabilidades

4.12 Ciertos teoremas fundamentales del cálculo de probabilidades 1 de 9 15/10/2006 05:57 a.m. Nodo Raíz: 4. Cálculo de probabilidades y variables Siguiente: 4.14 Tests diagnósticos Previo: 4.10 Probabilidad condicionada e independencia de 4.12 Ciertos teoremas fundamentales

Más detalles

Práctica 5. Códigos Huffman y Run-Length

Práctica 5. Códigos Huffman y Run-Length EC2422. Comunicaciones I Enero - Marzo 2009 Práctica 5. Códigos Huffman y Run-Length 1. Objetivos 1.1. Simular, usando MATLAB, un codificador y decodificador Huffman a fin de estudiar sus características

Más detalles

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 1

Maestría en Bioinformática Probabilidad y Estadística: Clase 1 Maestría en Bioinformática Probabilidad y Estadística: Clase 1 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Introducción 2 Teoría

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Tema 3: Cálculo de Probabilidades Unidad 1: Introducción y Concepto

Tema 3: Cálculo de Probabilidades Unidad 1: Introducción y Concepto Estadística Tema 3: Cálculo de Probabilidades Unidad 1: Introducción y Concepto Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Octubre 2010 Contenidos...............................................................

Más detalles

Introducción a la Teoría de la Información Codificación de fuentes

Introducción a la Teoría de la Información Codificación de fuentes Introducción a la Teoría de la Información Codificación de fuentes Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 1 Agenda (Facultad de Ingeniería, UdelaR)

Más detalles

Capítulo 5: Probabilidad e inferencia

Capítulo 5: Probabilidad e inferencia Capítulo 5: Probabilidad e inferencia estadística (Fundamentos Matemáticos de la Biotecnología) Departamento de Matemáticas Universidad de Murcia Contenidos Principios de la probabilidad Conceptos básicos

Más detalles

Sesión 2: Teoría de Probabilidad

Sesión 2: Teoría de Probabilidad Modelos Gráficos Probabilistas L. Enrique Sucar INAOE Sesión 2: Teoría de Probabilidad las reglas mátemáticas de la probabilidad no son simplemente reglas para calcular frecuencias de variables aleatorias;

Más detalles

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Los fenómenos del mundo real se pueden clasificar en dos tipos: Determínistico:

Más detalles

Curso de Inteligencia Artificial

Curso de Inteligencia Artificial Curso de Inteligencia Artificial Modelos Ocultos de Markov Gibran Fuentes Pineda IIMAS, UNAM Redes Bayesianas Representación gráfica de relaciones probabilísticas Relaciones causales entre variables aleatorias

Más detalles

Repaso de Probabilidad y Estadística

Repaso de Probabilidad y Estadística Repaso de Probabilidad y Estadística Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Febrero 2011 Probabilidad 2 Definición.............................................................

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Tema 2 Probabilidad condicional e independencia Objetivo de aprendizaje del tema Al finalizar el tema serás capaz de: Distinguir los eventos condicionales de los eventos independientes.

Más detalles

Probabilidades. Gerardo Arroyo Brenes

Probabilidades. Gerardo Arroyo Brenes Probabilidades Gerardo Arroyo Brenes Teoría de las Probabilidades Experimento: Es toda acción o proceso que produce resultados bien definidos. Ejemplos: Experimento Resultado: Lanzar una moneda Cara o

Más detalles

Práctica 5 Martingalas a tiempo discreto

Práctica 5 Martingalas a tiempo discreto Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.

Más detalles

Teoría de la información breve introducción práctica. Javier García, Graphics & Imaging Laboratory (UdG)

Teoría de la información breve introducción práctica. Javier García, Graphics & Imaging Laboratory (UdG) Teoría de la información breve introducción práctica Javier García, Graphics & Imaging Laboratory (UdG) Contenido Introducción Definición de Información y Entropía Ejemplos de aplicación I Ejemplos de

Más detalles

PROBABILIDAD Y ESTADÍSTICA

PROBABILIDAD Y ESTADÍSTICA PROBABILIDAD Y ESTADÍSTICA Pablo Torres Facultad de Ciencias Exactas, Ingeniera y Agrimensura - Universidad Nacional de Rosario Unidad 2: Probabilidad INTRODUCCIÓN Al lanzar un dado muchas veces veremos

Más detalles

Estadística I Tema 4: Probabilidad

Estadística I Tema 4: Probabilidad Estadística I Tema 4: Probabilidad Tema 4. Probabilidad Contenidos Experimentos aleatorios, espacio muestral, sucesos elementales y compuestos. Definición de probabilidad. Propiedades. Probabilidad condicionada

Más detalles

Unidad II Distribuciones de Probabilidad

Unidad II Distribuciones de Probabilidad Unidad II Distribuciones de Probabilidad Última revisión: 25-Septiembre-2009 Elaboró: Ing. Víctor H. Alcalá-Octaviano Página 11 II.1 Variables aleatorias discretas y continuas En gran número de experimentos

Más detalles

1. PROBABILIDAD SIMPLE

1. PROBABILIDAD SIMPLE 0. INTRODUCCIÓN Muchos aspectos de nuestra vida están influidos por el azar. Por ejemplo: Lloverá mañana?, quién ganará la liga de fútbol?, Si nos vamos ahora del colegio, se dará cuenta alguien? Cada

Más detalles

1. Información y Entropía de Shannon

1. Información y Entropía de Shannon Información y Entropía de Shannon Pablo Lessa 10 de octubre de 2014 1. Información y Entropía de Shannon Claude Shannon (1916 a 2001) era un tipo muy interesante. Por ejemplo, hizo construir una maquina

Más detalles

Tema 6: Introducción a la Probabilidad

Tema 6: Introducción a la Probabilidad Tema 6: Introducción a la Probabilidad 1. Introducción 2. La regularidad estadística 3. Concepto de probabilidad i. Definición clásica ii. Concepto frecuencialista de la probabilidad iii. Definición axiomática

Más detalles

CAPÍTULO IV CONCEPTOS BÁSICOS DE PROBABILIDAD

CAPÍTULO IV CONCEPTOS BÁSICOS DE PROBABILIDAD CAPÍTULO IV CONCEPTOS BÁSICOS DE PROBABILIDAD Por qué hablar de Probabilidad En el primer capítulo cuando definimos algunos conceptos hablamos de población y de muestra, dijimos que cuando trabajamos con

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

Estadística I Tema 5: Modelos probabiĺısticos

Estadística I Tema 5: Modelos probabiĺısticos Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y función de distribución.

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 5

PROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 5 PROBABILIDADES Y ESTADÍSTICA (C) PRÁCTICA 5 t* 1. En una línea de producción los productos pasan por 4 procesos sucesivos (preparación, armado, control y embalaje) hasta quedar listos para la venta. Sean

Más detalles

Teoría de Probabilidad

Teoría de Probabilidad Matemáticas Discretas L. Enrique Sucar INAOE Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para las que no existe

Más detalles

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de

Más detalles

Estadística aplicada al Periodismo

Estadística aplicada al Periodismo Estadística aplicada al Periodismo Temario de la asignatura Introducción. Análisis de datos univariantes. Análisis de datos bivariantes. Series temporales y números índice. Probabilidad y Modelos probabilísticos.

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Tema 4 Variables aleatorias Objetivo de aprendizaje del tema Al finalizar el tema serás capaz de: Describir las características de las variables aleatorias discretas y continuas.

Más detalles

Bioestadística Probabilidad 1. La población es el conjunto de elementos en los que se desea investigar la ocurrencia de una característica

Bioestadística Probabilidad 1. La población es el conjunto de elementos en los que se desea investigar la ocurrencia de una característica Bioestadística Probabilidad 1 Probabilidad Introducción a la probabilidad La población es el conjunto de elementos en los que se desea investigar la ocurrencia de una característica o propiedad. Son experimentos

Más detalles

Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino.

Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Se dice que un canal es ruidoso si la lectura de los datos

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Estadística I Tema 5: Modelos probabiĺısticos

Estadística I Tema 5: Modelos probabiĺısticos Estadística I Tema 5: Modelos probabiĺısticos Tema 5. Modelos probabiĺısticos Contenidos Variables aleatorias: concepto. Variables aleatorias discretas: Función de probabilidad y Función de distribución.

Más detalles

Procesos estocásticos Sesión 4. Cadenas de Markov

Procesos estocásticos Sesión 4. Cadenas de Markov Procesos estocásticos Sesión 4. Cadenas de Markov Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos 1. Probabilidades de retorno

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Fundamentos de la Teoría de la Probabilidad. Ing. Eduardo Cruz Romero

Fundamentos de la Teoría de la Probabilidad. Ing. Eduardo Cruz Romero Fundamentos de la Teoría de la Probabilidad Ing. Eduardo Cruz Romero www.tics-tlapa.com Teoría elemental de la probabilidad (1/3) El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos

Más detalles

Inferencia en Modelos Gráficos para detección de Tópicos (LDA)

Inferencia en Modelos Gráficos para detección de Tópicos (LDA) Inferencia en Modelos Gráficos para detección de Tópicos (LDA) Francisco Barreras 19 de enero de 2017 Contenido 1 Introducción y Contexto 2 Motivación 3 Definiciones y Fundamentos 4 Razonamiento y flujos

Más detalles

Máquinas de estado finito y expresiones regulares

Máquinas de estado finito y expresiones regulares Capítulo 3 Máquinas de estado finito y expresiones regulares En este tema definiremos y estudiaremos máquinas de estado finito, llamadas también máquinas de estado finito secuenciales o autómatas finitos.

Más detalles

REGLA DE LA MULTIPLICACIÓN

REGLA DE LA MULTIPLICACIÓN REGLA DE LA MULTIPLICACIÓN REGLA DE LA MULTIPLICACIÓN Cuando empleamos las reglas de la adición se determinaba la probabilidad de combinar dos eventos ( que suceda uno u otro o los dos) Cuando queremos

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Métodos de Inteligencia Artificial

Métodos de Inteligencia Artificial Métodos de Inteligencia Artificial L. Enrique Sucar (INAOE) esucar@inaoep.mx ccc.inaoep.mx/esucar Tecnologías de Información UPAEP Agentes que razonan bajo incertidumbre Introducción Repaso de probabilidad

Más detalles

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D

Modelos del Lenguaje. Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos del Lenguaje Qué es un ML? Modelos basados en N-gramas Modelos basados en Gramáticas Propuesta de T.D Modelos De Lenguaje Qué es un modelo de lenguaje? Mecanismo para definir la estructura del

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Entropía diferencial. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 19 Definición Definición (Entropía diferencial)

Más detalles

Compresión. UCR ECCI CI-2414 Recuperación de Información Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Compresión. UCR ECCI CI-2414 Recuperación de Información Prof. M.Sc. Kryscia Daviana Ramírez Benavides UCR ECCI CI-2414 Recuperación de Información Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción Grandes cantidades de información textual en la Internet. Se desea representar esta información con

Más detalles

Introducción a los códigos compresores

Introducción a los códigos compresores Introducción a los códigos compresores Parte I de la Lección 2, Compresores sin pérdidas, de CTI Ramiro Moreno Chiral Dpt. Matemàtica (UdL) Febrero de 2010 Ramiro Moreno (Matemàtica, UdL) Introducción

Más detalles

Tema 3: Cálculo de Probabilidades. Métodos Estadísticos

Tema 3: Cálculo de Probabilidades. Métodos Estadísticos Tema 3: Cálculo de Probabilidades Métodos Estadísticos 2 INTRODUCCIÓN Qué es la probabilidad? Es la creencia en la ocurrencia de un evento o suceso. Ejemplos de sucesos probables: Sacar cara en una moneda.

Más detalles

Distribución de probabilidad

Distribución de probabilidad Los experimentos aleatorios originan resultados y los resultados nos permiten tomar decisiones Por ejemplo, en un partido de fútbol si se lanza una moneda y sale cara parte la visita, de lo contrario parte

Más detalles

2 de mar de 2004 Codificación de imágenes y v ideo

2 de mar de 2004 Codificación de imágenes y v ideo Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N

Más detalles

Concentración de Medida en Algoritmos Aleatorizados.

Concentración de Medida en Algoritmos Aleatorizados. Concentración de Medida en Algoritmos Aleatorizados. Nicolás Rivera 23 de Junio de 2011 Pontificia Universidad Católica de Chile Índice 1 Introducción Concentración de Medida Índice 1 Introducción Concentración

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Conceptos Básicos. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 32 Agenda 1 Definiciones y Propiedades Básicas

Más detalles

Carrera: INGENIERIA ZOOTECNISTA E S T A D I S T I C A

Carrera: INGENIERIA ZOOTECNISTA E S T A D I S T I C A Carrera: INGENIERIA ZOOTECNISTA E S T A D I S T I C A ESTADÍSTICA INFERENCIAL Cuando no se puede estudiar a todos los miembros de una población y se debe recurrir a una muestra, haciendo uso de las técnicas

Más detalles

Sobre Codificación Conjunta Fuente-Canal

Sobre Codificación Conjunta Fuente-Canal UNIVERSIDAD CARLOS III DE MADRID ESCUELA POLITECNICA SUPERIOR MASTER EN MULTIMEDIA Y COMUNICACIONES Sobre Codificación Conjunta Fuente-Canal Luca Martino FEBRERO DE 2008 FEBRERO DE 2008 1 Introducción:

Más detalles

Modelos de Lenguaje Estadísticos

Modelos de Lenguaje Estadísticos Modelos de Lenguaje Estadísticos Víctor Peinado victor@lsi.uned.es Grupo de PLN y Recup. de Información Dept. LSI - UNED 3 de febrero de 2004 Índice Introducción: probabilidad, Regla de Bayes, Modelo de

Más detalles

Teoría de la Información Estadística

Teoría de la Información Estadística Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco MMCC 2005-2006

Más detalles

U D PROBABILIDAD 2º BACHILLERATO Col. LA PRESENTACIÓN PROBABILIDAD

U D PROBABILIDAD 2º BACHILLERATO Col. LA PRESENTACIÓN PROBABILIDAD PROBABILIDAD 0. DEFINICIONES PREVIAS 1. DISTINTAS CONCEPCIONES DE PROBABILIDAD a. Definición Clásica b. Definición Frecuentista 2. DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD a. Espacio Muestral b. Suceso Aleatorio

Más detalles

Procesos estocásticos Cadenas de Márkov

Procesos estocásticos Cadenas de Márkov Procesos estocásticos Cadenas de Márkov Curso: Investigación de Operaciones Ing. Javier Villatoro PROCESOS ESTOCASTICOS Procesos estocásticos Es un proceso o sucesión de eventos que se desarrolla en el

Más detalles

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria

Objetivos. 1. Variable Aleatoria y Función de Probabilidad. Tema 4: Variables aleatorias discretas Denición de Variable aleatoria Tema 4: Variables aleatorias discretas Objetivos Dominar el uso de las funciones asociadas a una variable aleatoria discreta para calcular probabilidades. Conocer el signicado y saber calcular la esperanza

Más detalles

Lección 5. Punto flotante

Lección 5. Punto flotante Lección 5. Punto flotante MIGUEL ANGEL UH ZAPATA 1 Análisis Numérico I Facultad de Matemáticas, UADY Agosto 2014 1 Centro de Investigación en Matemáticas, Unidad Mérida En esta lección aprenderemos lo

Más detalles

Probabilidad Condicional

Probabilidad Condicional Probabilidad Condicional Independencia condicional Como hemos dicho, las probabilidades condicionales tienen las mismas propiedades que las probabilidades no condicionales. Un ejemplo más es el siguiente:

Más detalles

Redes de Petri Estocásticas

Redes de Petri Estocásticas Redes de Petri Estocásticas Carlos Aguirre Universidad Autonoma de Madrid, Dpto Ingenieria Informatica Redes Estocásticas Definición: Una red de Petri Estocástica es una red de Petri con transiciones con

Más detalles

Teoría de la Información Estadística p. 1/1

Teoría de la Información Estadística p. 1/1 Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/ Teoría de la Información

Más detalles

Probabilidad. Estadística II. Curso 2011/2012. Universidad de Salamanca

Probabilidad. Estadística II. Curso 2011/2012. Universidad de Salamanca Estadística II Universidad de Salamanca Curso 2011/2012 Outline 1 Introducción 2 3 4 5 6 Introducción Cuándo se utiliza? Utilizamos el cálculo de probabilidades cuando necesitamos obtener conclusiones

Más detalles

Tema 7: Teoría de la Información Estadística p. 1/16

Tema 7: Teoría de la Información Estadística p. 1/16 Tema 7: Teoría de la Información Estadística p. 1/16 Tema 7: Teoría de la Información Estadística Abdelamlik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia

Más detalles

TEMA 3.- MODELOS DISCRETOS

TEMA 3.- MODELOS DISCRETOS TEMA 3.- MODELOS DISCRETOS 3.1. Introducción. 3.2. Distribución uniforme discreta de parámetro n. 3.3.Distribución Bernoulli de parámetro p. 3.4.Distribución Binomial de parámetros n y p. Notación: X Bn,

Más detalles

PROBABILIDAD. Universidad Europea de Madrid. Todos los derechos reservados.

PROBABILIDAD. Universidad Europea de Madrid. Todos los derechos reservados. PROBABILIDAD En este tema vamos a refrescar algunos de los conceptos básicos de probabilidad, ya que juegan un papel muy importante dentro de la materia. Concretamente vamos a recordar el Teorema de Bayes

Más detalles

Maestría en Bioinformática Probabilidad y Estadística: Clase 4

Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Maestría en Bioinformática Probabilidad y Estadística: Clase 4 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Procesos aleatorios

Más detalles

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10

Estadistica II Tema 0. Repaso de conceptos básicos. Curso 2009/10 Estadistica II Tema 0. Repaso de conceptos básicos Curso 2009/10 Tema 0. Repaso de conceptos básicos Contenidos Variables aleatorias y distribuciones de probabilidad La distribución normal Muestras aleatorias,

Más detalles

Teoría elemental de la probabilidad

Teoría elemental de la probabilidad La es el medio por el cual a partir de la información muestral tomamos decisiones o hacemos afirmaciones que se refieren a toda una población, mediante el proceso llamado inferencia estadística La nos

Más detalles

Problema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010

Problema 1: (3,25 puntos) TABLA 1 TABLA 2. Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Investigación Operativa de Sistemas I.T. Informática de Sistemas 7 de Septiembre de 2010 Problema 1: (3,25 puntos) Resolver Mediante el Algoritmo del Simplex el siguiente problema: TABLA 1 Max 3x 1 + x

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad

Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 1.1. Aleatoriedad e incertidumbre 1.2 Probabilidad

Más detalles

Ejercicios sobre probabilidades y entropías

Ejercicios sobre probabilidades y entropías Ejercicios sobre probabilidades y entropías CTI: Lección 1, Primer teorema de Shannon (SCT) Ramiro Moreno Chiral Dpt. Matemàtica (UdL) 10 de febrero de 2010 CTI, lección 1 (Problemas) Ejercicios sobre

Más detalles

ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo

ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo ESTADÍSTICA 1 o CC. Ambientales Tema 2: Modelos de probabilidad y técnicas de muestreo Sobre la aleatoriedad y la probabilidad Variables cuantitativas Modelos de probabilidad más comunes Estadística (Ambientales).

Más detalles

ESTADISTICA GENERAL. PROBABILIDADES Profesor: Celso Celso Gonzales

ESTADISTICA GENERAL. PROBABILIDADES Profesor: Celso Celso Gonzales ESTADISTICA GENERAL PROBABILIDADES Profesor: Celso Celso Gonzales OBJETIVOS Desarrollar la comprensión de los conceptos básicos de probabilidad. Definir que es probabilidad Definir los enfoques clasico,

Más detalles

Distribuciones de probabilidad

Distribuciones de probabilidad Distribuciones de probabilidad Distribución Binomial La distribución binomial es una de las distribuciones utilizadas más ampliamente en estadística aplicada. La distribución se deriva del procedimiento

Más detalles

n A i ) = 1 Ejemplo. El experimento consiste en tirar una moneda. Se considera S = {cara, ceca} La familia de eventos es P(S) = {,{cara}, {ceca}, S}

n A i ) = 1 Ejemplo. El experimento consiste en tirar una moneda. Se considera S = {cara, ceca} La familia de eventos es P(S) = {,{cara}, {ceca}, S} 2.4 Probabilidad de un Evento CONCEPTO DE PROBABILIDAD La probabilidad de un evento A P(S), denotada con P(A), es una medida de la posibilidad de que se realice A si se ejecuta el experimento una vez.

Más detalles

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas Banda Ancha Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos MSc. Luis Rojas INTRODUCCIÓN Para el almacenamiento y transmisión eficiente de señales de voz, video y texto

Más detalles

M.C. Francisco Alberto Hernandez de la Rosa Fecha de elaboración: Agosto de 2004 Fecha de última actualización: Julio de 2010

M.C. Francisco Alberto Hernandez de la Rosa Fecha de elaboración: Agosto de 2004 Fecha de última actualización: Julio de 2010 PROGRAMA DE ESTUDIO Probabilidad Programa Educativo: Licenciatura en Actuaría Área de Formación : Sustantiva Profesional Horas teóricas: 3 Horas prácticas: 2 Total de Horas: 5 Total de créditos: 8 Clave:

Más detalles

PROBABILIDAD. Propiedades de la probabilidad

PROBABILIDAD. Propiedades de la probabilidad PROBABILIDAD Definición axiomática: Sea E el espacio muestral de cierto experimento aleatorio. La Probabilidad de cada suceso es un número que verifica: ) Cualquiera que sea el suceso A, 0 A). 2) Si dos

Más detalles

Bases Formales de la Computación: Sesión 1. Probabilidad Discreta

Bases Formales de la Computación: Sesión 1. Probabilidad Discreta Bases Formales de la Computación: Sesión 1. Probabilidad Discreta Prof. Gloria Inés Alvarez V. Departamento de Ciencias e Ingeniería de la Computación Pontificia Universidad Javeriana Cali 11 de abril

Más detalles

Computabilidad y aleatoriedad

Computabilidad y aleatoriedad Computabilidad y aleatoriedad Santiago Figueira Grupo de Investigación en Lógica y Computabilidad Departamento de Computación Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires VI Jornadas

Más detalles

Tipos de fenómenos. Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw.

Tipos de fenómenos. Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw. Tipos de fenómenos Deterministas: Previsibles de antemano sin recurrir a la observación. Aleatorios: Inciertosw. Variable aleatoria: Tiene comportamiento incierto. Aleatoriedad =incertidumbre Aleatoriedad

Más detalles

Probabilidad condicional

Probabilidad condicional 4 Profra. Blanca Lucía Moreno Ley March 18, 2014 Sumario 1 Resumen 2 Probabilidad Supongamos que un experimento E tiene un espacio muestral U y un evento A está definido en dicho espacio muestral, entonces

Más detalles

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información Patricio Parada Néstor Becerra Yoma Departamento de Ingeniería Eléctrica Universidad de Chile 18 de Noviembre de

Más detalles