Aprendizaje Automático
|
|
|
- Veronica Salinas Alarcón
- hace 7 años
- Vistas:
Transcripción
1 Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 Ingeniería Informática Fernando Fernández Rebollo y Daniel Borrajo Millán Grupo de Planificación y Aprendizaje (PLG) Departamento de Informática Escuela Politécnica Superior Universidad Carlos III de Madrid 27 de febrero de 2009
2 En Esta Sección: 3 Árboles y Reglas de Decisión id3 id3 como búsqueda Cuestiones Adicionales 4 Regresión Lineal: Descenso de Gradiente Árboles de Regresión: M5 5 6 Aprendizaje Basado en Instancias () K-NN
3 Árboles y Reglas de Decisión La teoría de decisión bayesiana se basa en dos suposiciones: El problema de decisión se puede describir en términos probabiĺısticos: Dado un conjunto de datos, D, cuál es la mejor hipótesis h del cunjunto de hipótesis H La mejor hipótesis es la hipótesis más probable Todos los valores de las probabilidades del problema son conocidas Decisiones tomadas en función de ciertas observaciones
4 Ejemplo: el Caso de la Moneda Trucada Espacio de hipótesis: {cara, cruz} Espacio de observaciones: {brillo, mate} Lanzo una moneda, recibo la observación, D, y genero una hipótesis, h Preguntas: Cuál es la mejor hipótesis? Cuál es la hipótesis más probable? Cuál es la probabilidad de obtener cara? Cuál es la probabilidad de obtener cruz? Cuál es la probabilidad de obtener cara, habiéndo recibido como observación brillo? Cuál es la probabilidad de obtener cruz, habiéndo recibido como observación mate?
5 Probabilidades a Priori P(h): Probabilidad de que la hipótesis h sea cierta o Probabilidad a priori de la hipótesis h Refleja el conocimiento que tenemos sobre las oportunidades de que la hipótesis h sea cierta antes de recibir ninguna observación Si no tenemos ningún conocimiento a priori, se le podría asignar la misma probabilidad a todas las hipótesis P(D): Probabilidad de que recibamos la observación D o Probabilidad a priori de la observación D Refleja la probabilidad de recibir la observación D, cuando no tenemos ninguna idea sobre cuál es la hipótesis real
6 Probabilidades a Posteriori P(D h): Probabilidad de observar el dato D, cuando se cumple la hipótesis h o Probabilidad a posteriori de la observación D P(h D): Probabilidad de que se cumpla la hipótesis h, dado que se ha obtenido el dato D, o Probabilidad a posteriori de la hipótesis h
7 Teorema de Bayes En aprendizaje inductivo, estamos interesados en calcular las probabilidades de las hipótesis a posteriori, ya que son las que se obtienen tras recibir observaciones o ejemplos de entrenamiento. Teorema de Bayes: P(h D) = P(D h)p(h) P(D) Calcula la probabilidad a posteriori de la hipótesis en función de otras probabilidades
8 Decisor MAP Árboles y Reglas de Decisión Decisor máximo a posteriori: h MAP = arg máx h H P(h D) = arg máx h H P(D h)p(h) P(D) = arg máx P(h D) = P(D h)p(h) h H El decisor de máxima verosimilitud, ML (maximum likelihood), asume que todas las hipótesis son equiprobables a priori: h ML = arg máx h H P(D h)
9 Ejemplo: el Caso de la Moneda Trucada Probabilidades a priori: P(cara) = 0,2, P(cruz) = 0,8 Probabilidades a posteriori: P(brillo cara) = 0,9, P(mate cara) = 0,1 P(brillo cruz) = 0,6, P(mate cruz) = 0,4 Tiro la moneda y obtengo brillo: arg máx cara,cruz h MAP = arg máx P(brillo h)p(h) = cara,cruz (P(brillo cara)p(cara), P(brillo cruz)p(cruz)) = arg máx cara,cruz arg máx cara,cruz (0,9 0,2, 0,6 0, 8) = (0,18, 0,48) = cruz
10 Ejemplo: el Caso de la Moneda Trucada Sin embargo: h ML = arg máx P(brillo h) = cara,cruz arg máx cara,cruz (P(brillo cara), P(brillo cruz)) = arg máx cara,cruz (0 9, 0 6) = cara
11 Clasificador MAP de Fuerza Bruta Caso general: 1 Para cada hipótesis clase h H, calcular la probabilidad a posteriori: P(h D) = P( D h)p(h) P( D) 2 Dar como salida la hipótesis/clase con la mayor probabilidad a posteriori: h MAP = arg máx h H P(h D) = Dos hipótesis/clases: g( D) = P( D h 1 )P(h 1 ) P( D h 2 )P(h 2 ) h MAP = { h1 g(x) 0 h 2 g(x) < 0 (3)
12 Probabilidades de Error: Ejemplo Un clasificador de, por ejemplo, dos categorías, divide el espacio en dos regiones, R 1 para la categoría h 1, y R 2 para la categoría h 2. Errores de clasificación de una instancia x: 1 x pertenece a categoría w 1 pero cae en la región R 2 2 x pertenece a categoría w 2 pero cae en la región R 1 Probabilidad de Error de un clasificador MAP: P(error) = P( x R 2, w 1 ) + P( x R 1, w 2 ) = P( x R 2 w 1 )P(w 1 ) + P( x R 1 w 2 )P(w 2 ) = R 2 p( x w 1 )P(w 1 )dx + R 1 p( x w 2 )P(w 2 )dx (4)
13 Árboles y Reglas de Decisión Probabilidades de Error p(x w 1 )P(w 1 ) p(x w 2 )P(w 2 ) R 1 R 2 x Cuál es el punto de división entre las regiones que minimiza el error de clasificación?
14 Dadas dos clases, ω 1 y ω 2, tenemos sus funciones discriminantes: g i ( x) = p( x ω i )P(ω i ) Frontera de decisión: g i ( x) = log p( x ω i ) + log P(ω i ) g 1 ( x) = g 2 ( x)
15 Función de Densidad Normal Función de densidad normal unidimensional: [ p(x) = 1 exp 1 ( ) ] x µ 2 = N(µ, σ 2 ) (5) 2πσ 2 σ Donde: E[x] = E[(x µ)) 2 ] = xp(x)dx = µ (x µ) 2 p(x)dx = σ N(0, 1) Con un factor de confianza de aproximadamente el 95 %, x µ 2σ
16 Función de Densidad Normal Función de densidad normal multidimensional: p( x) = 1 (2π) d/2 Σ 1/2 exp[ 1 2 ( x µ)t Σ 1 ( x µ)] = N[µ, Σ] Donde: µ: vector de medias µ = E[ x]; µ i = E[x i ] Σ: matriz de covarianzas d d Σ = E[( x µ)( x µ) t ]; σ ij = E[(x i µ i )(x j µ j )] σ ii : varianza de x i Si σ ij = 0, para i j, entonces x i es estadísticamente independiente de x j Σ : determinante de Σ ( x µ) t : transpuesta de ( x µ) (6)
17 Función Discriminante de una Densidad Normal Recordamos la función discriminante: g i ( x) = log p( x ω i ) + log P(ω i ) Si asumimos que p( x ω i ) = N( µ i, Σ i ): g i ( x) = 1 2 ( x µ i) t Σ 1 i ( x µ i ) d 2 log 2π 1 2 log Σ i +log P(ω i ) (7)
18 Caso Particular: Σ i = σ 2 I Si Σ i = σ 2 I : Las características son estadísticamente independientes Todas las características tienen la misma varianza, σ 2 Σ i = σ 2d Σ 1 i = (1/σ 2 )I Entonces: g i ( x) = x µ i 2 2σ 2 + log P(ω i ) (8) Donde. es la norma eucĺıdea: x µ i 2 = ( x µ i )( x µ i ) t = d (x j µ ij ) 2 j=1
19 Caso Particular: Σ i = σ 2 I Si desarrollamos la función discriminante: g i ( x) = 1 2σ 2 [ x t x 2 µ t i x + µt i µ i ] + log P(ω i ) (9) De donde se deriva un discriminador lineal (dado que x t x es independiente de i): Donde: g i ( x) = w t i x + w i0 (10) w i = 1 σ 2 µ i w i0 = 1 2σ 2 µt i µ i + log P(ω i )
20 Ejemplo Árboles y Reglas de Decisión x 2 R 1 g 1 (x)=g 2 (x) R 2 x 1
21 y Aprendizaje Supervisado Hemos visto que se pueden construir clasificadores óptimos si se conocen las probabilidades a priori, P(ω j ), y las densidades de clases condicionales, p( x ω j ) Desafortunadamente, esas probabilidades son raramente conocidas En cambio, en la mayoría de las ocasiones se dispone de cierto conocimiento del modelo, así como de un número de ejemplos representativos de dicho modelo Por tanto, una buena aproximación es utilizar el conocimiento del dominio y los ejemplos para diseñar el clasificador: Probabilidades a priori parece sencillo Para las probabilidades a posteriori, se necesita demasiada información, sobre todo cuando crece la dimensión de los datos de entrada.
22 y Aprendizaje Supervisado Utilizar conocimiento del problema para parametrizar las funciones de densidad Asumir que la función de densidad sigue una distribunción dada, por ejemplo N( µ j, Σ j ) Traspasar el problema de aproximar la función p( x ω j ) a estimar los parámetros µ j y Σ j. Añadir más simplificaciones, por ejemplo, que Σ j es conocida.
23 Estimación de Máxima Verosimilitud (Maximum Likelihood Estimation) Suponer que podemos separar todas las instancias de acuerdo con su clase, de forma que generamos c conjuntos de ejemplo, χ 1,..., χ c Los ejemplos en χ han sido generados independientes siguiendo una distribución p( x ω j ) Asumimos que p( x, ω j ) se puede parametrizar unívocamente por un vector de parámetros θ j Por ejemplo, podemos asumir que p( x, ω j ) N( µ j, Σ j ), donde θ j =< µ j, Σ j > Esa dependencia de p( x ω j ) con θ j la representamos expĺıcitamente con p( x ω j, θ j ) Objetivo: utilizar los conjuntos de ejemplos χ 1,..., χ c para estimar θ 1,..., θ c
24 Estimador de Máxima Verosimilitud Idea: utilizar el conjunto de ejemplos χ, generados independientemente siguiendo la densidad de probabilidad p(χ θ), para estimar el vector de parámetros desconocido θ. Si que χ contiene n ejemplos, χ = { x 1,..., x n }, dado que fueron generados independientemente: p(χ θ) = n p( x k θ) (11) k=1 Vista como una función, p(χ θ) puede ser denominada la probabilidad de θ dado el conjunto χ El estimador de verosimilitud probabilidad de θ es, por definición, el valor ˆθ que maximiza p(χ θ)
25 Estimador de Máxima Verosimilitud: Ejemplo p( χ θ ) ^ θ θ
26 Estimador de Máxima Verosimilitud para una Densidad de Probabilidad Normal, dada Σ Como Σ viene dada, intentamos estimar ˆµ Dado que la función logaritmo es monótona creciente, el estimador de máxima verosimilitud coincide con el estimador de máxima verosimilitud de su logaritmo 1 p( x k µ) = exp[ 1 (2π) d/2 Σ 1/2 2 ( x k µ) t Σ 1 ( x k µ)] log p( x k µ) = 1 2 ( x k µ) t Σ 1 ( x k µ) d 2 log 2π 1 2 log Σ µ log p( x k µ) = Σ 1 ( x k µ) (12) µ p(χ θ) = µ n k=1 p( x k θ) = n k=1 µ log p( x k µ) = n k=1 Σ 1 ( x k µ) (13)
27 Estimador de Máxima Verosimilitud para una Densidad de Probabilidad Normal, dada Σ Ahora igualamos a 0 para obtener el máximo: n Σ 1 ( x k ˆµ) = 0 (14) k=1 ˆµ = 1 n x k (15) n k=1 Igualmente, se puede calcular el estimador de la matriz de covarianzas cuando dicha matriz es desconocida: ˆΣ = 1 ( x k ˆµ)( x k ˆµ) t (16) n k=1
28 Clasificador Bayesiano Necesitamos aprender las probabilidades a posteri, P(ω i x) Por teorema de Bayes: P(ω i x) = p( x ω i)p(ω i ) P( x) = P( x ω i )P(ω i ) c j=1 p( x ω i)p(ω j ) (17) Las probabilidades anteriores son desconocidas, pero: Diponemos de conocimiento del dominio que nos permite parametrizar esas densidades de probabilidad (por ejemplo, que siguen una distribución normal) Diponemos de un conjunto de entrenamiento, χ, del que podemos aprender los parámetros de las funciones de densidad
29 Clasificador Bayesiano (caso continuo) La regla de Bayes para clasificación desde ejemplos queda como: P(ω i x, χ) = p( x ω i, χ)p(ω i χ) P( x χ) = p( x ω i, χ)p(ω i χ) c j=1 p( x ω j, χ)p(ω j χ) (18) Separando las instancias de entrenamiento de χ en c conjuntos, χ 1,..., χ c, y asumiendo que las probabilidades a priori son conocidas: P(ω i x, χ) = p( x ω i, χ i )P(ω i ) c j=1 p( x ω j, χ j )P(ω j ) Por tanto, el clasificador Bayesiano se define como: (19) Bayes( x) = ω = arg ωi máx p( x ω i, χ i )P(ω i ) (20)
30 El Caso Discreto Para toda clase ω i, P(ω i χ) = χ i χ Para toda posible instancia x Sea M i el conjunto de todas las ocurrencias de x en χ i p( x ω i, χ i ) = M i χ i Bayes( x) = arg ωi máx M i El problema de la dimensionalidad: Cada ejemplo x debe aparencer en χ i un número suficientemente grande de veces como para obtener estadísticas significativas. Si la dimensión de x crece, el número de posibles valores de x crece exponencialmente, haciendo el problema intratable Qué ocurre si el nuevo ejemplo a clasificar, x, no se había dado en χ?
31 Ejemplo: Jugar al tenis Day outlook temperature humidity windy play D1 sunny hot high weak no D2 sunny hot high strong no D3 overcast hot high weak yes D4 rainy mild high weak yes D5 rainy cool normal weak yes D6 rainy cool normal strong no D7 overcast cool normal strong yes D8 sunny mild high weak no D9 sunny cool normal weak yes D10 rainy mild normal weak yes D11 sunny mild normal strong yes D12 overcast mild high strong yes D13 overcast hot normal weak yes D14 rainy mild high strong no
32 Solución de la Clasificación Bayesiana Consulta: (outlook=sunny, Temperature=cool, Humidity=high, Wind=strong) Clasificador Bayesiano: Bayes( x) = ω = arg i máx p( x ω i, χ i )P(ω i χ) = ω = arg yes,no máx(p( x ω yes, χ yes )P(ω yes χ), p( x ω no, χ no )P(ω no χ)) (21) Probabilidades a priori: P(ω yes ) = 9 14 P(ω no ) = 5 14 (22) probabilidades a posteriori: p(< sunny, cool, high, strong > ω yes, χ yes ) =?? p(< sunny, cool, high, strong > ω no, χ no ) =?? (23)
33 El Clasificador Naive Bayes Naive Bayes asume independencia lineal entre los distintos atributos Eso implica que: p( x ω i, χ i ) = p(< x 1, x 2,..., x k > ω i, χ i ) = K k=1 p(x k ω i, χ i ) (24) Por tanto: K NaiveBayes( x) = ω = arg i máx p(x k ω i, χ i )P(ω i ) (25) k=1
34 Solución al Ejemplo con Naive Bayes Consulta: (outlook=sunny, Temperature=cool, Humidity=high, Wind=strong) Probabilidades a priori: P(ω yes χ) = 9 14 = 0,64 P(ω no χ) = 5 14 = 0,35 (26)
35 Solución al Ejemplo con Naive Bayes Probabilidades a posteriori: p(< outlook = sunny > ω yes, χ yes) = 2 9 = 0,22 p(< outlook = sunny > ω no, χ no) = 3 5 = 0,6 p(< Temperature = cool > ω yes, χ yes) = 3 9 = 0,33 p(< Temperature = cool > ω no, χ no) = 1 5 = 0,2 p(< Humidity = high > ω yes, χ yes) = 3 9 = 0,33 p(< Humidity = high > ω no, χ no) = 4 9 = 0,44 p(< Wind = strong > ω yes, χ yes) = 3 9 = 0,33 p(< Wind = strong > ω no, χ no) = 3 5 = 0,6 (27) Entonces: P(yes)p(sunny yes)p(cool yes)p(high yes)p(strong yes) = 0,64 0,22 0,33 0,33 0,33 = 0,005 P(no)p(sunny no)p(cool no)p(high no)p(strong no) = 0,35 0,6 0,2 0,44 0,6 = 0,01 NaiveBayes(< sunny, cool, high, strong >) = no (28)
36 Resumen Árboles y Reglas de Decisión Teoría Bayesina nos da mecanismos para generar clasificadores basándose en las probabilidades a priori y las distribuciones de probabilidad a posteriori Las probabilidades pueden ser desconocidas: aprendizaje paramétrico Estimación de parámetros en densidades de probabilidad conocidas Clasificador Bayesiano Naive Bayes
37 Bibliografía Árboles y Reglas de Decisión Pattern Classification and Scene Analysis, Duda and Hart. Capítulo 2 Tom Mitchell. Machine Learning, capítulo 6, McGraw-Hill 1997
Tema 8. Fundamentos de Análisis discriminante
Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. Tema 8. Fundamentos de Análisis discriminante 8.1. Introducción. Empezamos deniendo el problema discriminante.
Teorema Central del Límite (1)
Teorema Central del Límite (1) Definición. Cualquier cantidad calculada a partir de las observaciones de una muestra se llama estadístico. La distribución de los valores que puede tomar un estadístico
ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la Estimación Puntual, que es uno de los tres grandes conjuntos de técnicas que
Aprendizaje Automatizado
Aprendizaje Automatizado Aprendizaje Automatizado Programas que mejoran su comportamiento con la experiencia. Dos formas de adquirir experiencia: A partir de ejemplos suministrados por un usuario (un conjunto
Conceptos Básicos de Inferencia
Conceptos Básicos de Inferencia Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Inferencia Estadística Cuando obtenemos una muestra, conocemos
Tema 2. Introducción a la Estadística Bayesiana
2-1 Tema 2 Introducción a la Estadística Bayesiana El teorema de Bayes Ejemplo Interpretación Ejemplo: influencia de la distribución a priori Ejemplo: densidad de flujo Probabilidad bayesiana Ejemplo:
Tema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO
Técnicas de Clasificación Supervisada DRA. LETICIA FLORES PULIDO 2 Objetivo El objetivo principal de las técnicas de clasificación supervisada es obtener un modelo clasificatorio válido para permitir tratar
GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC)
GUÍA DOCENTE: Sistemas Basados en Conocimiento y Minería de Datos (SBC) Curso Académico: 2015-2016 Programa: Centro: Universidad: Máster Universitario en Ingeniería Informática Escuela Politécnica Superior
INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la estimación mediante Intervalos de Confianza, que es otro de los tres grandes
Análisis de datos Categóricos
Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores
ANÁLISIS DISCRIMINANTE (AD)
discrim_predictivo.doc 30//05 vgg ANÁLISIS DISCRIMINANTE (AD) Regresión con respuesta categórica Y Cómo depende Y de las variables X, X,... X p? cualitativa cuantitativas Planteamiento Predictivo del AD:
ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Estadistica. CURSO ACADÉMICO - SEMESTRE Primer semestre
ANX-PR/CL/001-01 GUÍA DE APRENDIZAJE ASIGNATURA Estadistica CURSO ACADÉMICO - SEMESTRE 2016-17 - Primer semestre GA_05IQ_55001012_1S_2016-17 Datos Descriptivos Nombre de la Asignatura Titulación Centro
Econometría II Grado en finanzas y contabilidad
Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:[email protected] Este documento es
Modelos Estadísticos de Crimen
Universidad de los Andes Modelos Estadísticos de Crimen 27 de Mayo de 2015 Motivacion Conocer la densidad de probabilidad del crimen sobre una ciudad, a distintas horas del día, permite Modelos Estadísticos
Distribuciones de probabilidad bidimensionales o conjuntas
Distribuciones de probabilidad bidimensionales o conjuntas Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN PLAN DE ESTUDIOS DE LA LICENCIATURA EN QUÍMICA INDUSTRIAL
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN PLAN DE ESTUDIOS DE LA LICENCIATURA EN QUÍMICA INDUSTRIAL PROGRAMA DE LA ASIGNATURA DE: IDENTIFICACIÓN DE LA ASIGNATURA
Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
Distribuciones de probabilidad
Distribuciones de probabilidad Prof, Dr. Jose Jacobo Zubcoff Departamento de Ciencias del Mar y Biología Aplicada Inferencia estadística: Parte de la estadística que estudia grandes colectivos a partir
Tema 5. Contraste de hipótesis (I)
Tema 5. Contraste de hipótesis (I) CA UNED de Huelva, "Profesor Dr. José Carlos Vílchez Martín" Introducción Bienvenida Objetivos pedagógicos: Conocer el concepto de hipótesis estadística Conocer y estimar
Clasificación Bayesiana de textos y páginas web
Clasificación Bayesiana de textos y páginas web Curso de doctorado: Ingeniería Lingüística aplicada al Procesamiento de Documentos Víctor Fresno Fernández Introducción Enorme cantidad de información en
478 Índice alfabético
Índice alfabético Símbolos A, suceso contrario de A, 187 A B, diferencia de los sucesos A y B, 188 A/B, suceso A condicionado por el suceso B, 194 A B, intersección de los sucesos A y B, 188 A B, unión
Contrastes de hipótesis paramétricos
Estadística II Universidad de Salamanca Curso 2011/2012 Outline Introducción 1 Introducción 2 Contraste de Neyman-Pearson Sea X f X (x, θ). Desonocemos θ y queremos saber que valor toma este parámetro,
INTERVALOS DE CONFIANZA. La estadística en cómic (L. Gonick y W. Smith)
INTERVALOS DE CONFIANZA La estadística en cómic (L. Gonick y W. Smith) EJEMPLO: Será elegido el senador Astuto? 2 tamaño muestral Estimador de p variable aleatoria poblacional? proporción de personas que
ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua
ESTADÍSTICA Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal Cuantitativa discreta continua DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta: fi Frecuencia relativa:
8. Estimación puntual
8. Estimación puntual Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 1 / 30 Contenidos 1 Introducción 2 Construcción de estimadores
Tabla de datos de la asignatura Asignatura: Métodos Estadísticos de la Ingeniería
INGENIERO INDUSTRIAL Tabla de datos de la asignatura Asignatura: Métodos Estadísticos de la Ingeniería Titulación: INGENIERO INDUSTRIAL Ciclo: 1 Curso: 2 Carácter: Obligatoria Duración: Cuatrimestral Créditos
Carrera: Ingeniería Civil Participantes Comité de Evaluación Curricular de Institutos Tecnológicos
1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Probabilidad y Estadística Ingeniería Civil Clave de la asignatura: Horas teoría-horas práctica-créditos 3-2-8 2.- HISTORIA DEL PROGRAMA Lugar
CÁLCULO DE PROBABILIDADES
CÁLCULO DE PROBABILIDADES Tipo de asignatura: Troncal Anual. Créditos ECTS: 15 I.- INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES. (16 horas presenciales) Tema 1.- La naturaleza del cálculo de probabilidades.
Distribuciones de probabilidad más usuales
Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y
Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad
Estadística y sus aplicaciones en Ciencias Sociales 1. Introducción a la probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 1.1. Aleatoriedad e incertidumbre 1.2 Probabilidad
Probabilidad y Estadística Descripción de Datos
Descripción de Datos Arturo Vega González [email protected] Division de Ciencias e Ingenierías Universidad de Guanajuato Campus León Universidad de Guanajuato, DCI, Campus León 1 / 28 Contenido 1 Probabilidad
Variable Aleatoria Continua. Principales Distribuciones
Variable Aleatoria Continua. Definición de v. a. continua Función de Densidad Función de Distribución Características de las v.a. continuas continuas Ejercicios Definición de v. a. continua Las variables
Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Algunas Distribuciones Continuas de Probabilidad UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda
Facultad de Ciencias Sociales - Universidad de la República
Facultad de Ciencias Sociales - Universidad de la República Estadística y sus aplicaciones en Ciencias Sociales Edición 2016 Ciclo Avanzado 3er. Semestre (Licenciatura en Ciencia Política/ Licenciatura
2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...
Contenidos 1 Introducción al paquete estadístico S-PLUS 19 1.1 Introducción a S-PLUS............................ 21 1.1.1 Cómo entrar, salir y consultar la ayuda en S-PLUS........ 21 1.2 Conjuntos de datos..............................
Métodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre
Probabilidad. Carrera: IFM Participantes. Representantes de la academia de sistemas y computación de los Institutos Tecnológicos.
1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Probabilidad Licenciatura en Informática IFM - 0429 3-2-8 2.- HISTORIA DEL PROGRAMA
Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12
Simulación I Prof. José Niño Mora Investigación Operativa, Grado en Estadística y Empresa, 2011/12 Esquema Modelos de simulación y el método de Montecarlo Ejemplo: estimación de un área Ejemplo: estimación
Cota Inferior de Cramer Rao
Cota Inferior de Cramer Rao Tratamiento Estadístico de Señales Pablo Musé, Ernesto López & Luís Di Martino {pmuse,elopez}@fing.edu.uy Departamento de Procesamiento de Señales Instituto de Ingeniería Eléctrica
Definición de probabilidad
Tema 5: LA DISTRIBUCIÓN NORMAL 1. INTRODUCCIÓN A LA PROBABILIDAD: Definición de probabilidad Repaso de propiedades de conjuntos (Leyes de Morgan) Probabilidad condicionada Teorema de la probabilidad total
Capítulo 6: Variable Aleatoria Bidimensional
Capítulo 6: Variable Aleatoria Bidimensional Cuando introducíamos el concepto de variable aleatoria unidimensional, decíamos que se pretendía modelizar los resultados de un experimento aleatorio en el
Programa Analítico Plan de estudios Asignatura: Probabilidad y Estadística
Programa Analítico Plan de estudios 2011 Asignatura: Probabilidad y Estadística CARRERA: LICENCIATURA LIC. CIENCIAS EN DE CIENCIAS LA COMPUTACIÓN-LIC. DE LA COMPUTACIÓN EN SISTEMAS DE INFORMACIÓN AÑO:
Repaso de conceptos de álgebra lineal
MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso
Fundamentos de Estadística
Fundamentos de Estadística Introducción a la Estadística Prof. Dr. Eduardo Valenzuela Domínguez [email protected] Universidad Técnica Federico Santa María Dr. Eduardo Valenzuela D.; MEE 2005 p.
CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS 1 POR QUÉ SE LLAMAN CONTRASTES NO PARAMÉTRICOS? A diferencia de lo que ocurría en la inferencia paramétrica, ahora, el desconocimiento de la población que vamos
Distribuciones de probabilidad multivariadas
Capítulo 3 Distribuciones de probabilidad multivariadas Sobre un dado espacio muestral podemos definir diferentes variables aleatorias. Por ejemplo, en un experimento binomial, X 1 podría ser la variable
Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad
Estadística y sus aplicaciones en Ciencias Sociales 2. Modelos de probabilidad Facultad de Ciencias Sociales Universidad de la República Curso 2016 Índice 2.1. Variables aleatorias: funciones de distribución,
Métodos Bayesianos. Carlos J. Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid
Métodos Bayesianos Carlos J. Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación 2. Teorema de Bayes 3. Hipótesis H MAP 4. Teorema
INFERENCIA ESTADISTICA
1 INFERENCIA ESTADISTICA Es una rama de la Estadística que se ocupa de los procedimientos que nos permiten analizar y extraer conclusiones de una población a partir de los datos de una muestra aleatoria,
Unidad IV: Distribuciones muestrales
Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia
Estimación por intervalo del parámetro de la distribución de Poisson con una sola observación
Revista Colombiana de Estadística Volumen 30 No. 1. pp. 69 a 75. Junio 2007 Estimación por intervalo del parámetro de la distribución de Poisson con una sola observación Interval Estimation for the Poisson
Contenido. 2 Probabilidad 9. Prefacio. 1 Introducci6n a la estadfstica y al an;!llisis de datos
Contenido Prefacio ix 1 Introducci6n a la estadfstica y al an;!llisis de datos 1 1.1 1.2 1.3 1.4 1.5 1.6 Repaso 1 EI papel de la probabilidad 2 Medidas de posici6n: media de una muestra 4 Medidas de variabilidad
Probabilidad II Algunas distribuciones notables. Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid
Probabilidad II Algunas distribuciones notables Antonio Cuevas Departamento de Matemáticas Universidad Autónoma de Madrid La distribución normal f (x; µ, σ) = 1 σ 2π e 1 2( x µ σ ) 2, x R, µ R, σ > 0 E(X
Tema 5. Variables Aleatorias
Tema 5. Variables Aleatorias Presentación y Objetivos. En este tema se estudia el concepto básico de Variable Aleatoria así como diversas funciones fundamentales en su desarrollo. Es un concepto clave,
Variables aleatorias
Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando
Unidad 1: Espacio de Probabilidad
Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar
7 Uso de la probabilidad en la investigación psicológica
7 Uso de la probabilidad en la investigación psicológica 1. Teoría de la Probabilidad 2. Variables aleatorias La importancia de la Teoría de la Probabilidad en el ámbito de la estadística se deriva del
1. Los números reales. 2. Representación. 3. Densidad de los números racionales. 4. Propiedades de los números reales
EJES ARTICULADORES Y PRODUCTIVOS DEL AREA SISTEMA DE CONOCIMIENTOS GRADO: 10 11 1. Los números reales 1. Desigualdades. 2. Representación 2. Propiedades. 3. Densidad de los números racionales 4. Propiedades
Variables aleatorias
Distribuciones continuas Se dice que una variable aleatoria X tiene una distribución continua, o que X es una variable continua, si existe una función no negativa f, definida sobre los números reales,
Modelado de la aleatoriedad: Distribuciones
Modelado de la aleatoriedad: Distribuciones Begoña Vitoriano Villanueva [email protected] Facultad de CC. Matemáticas Universidad Complutense de Madrid I. Distribuciones Discretas Bernoulli (p) Aplicaciones:
Aprendizaje: Boosting y Adaboost
Técnicas de Inteligencia Artificial Aprendizaje: Boosting y Adaboost Boosting 1 Indice Combinando clasificadores débiles Clasificadores débiles La necesidad de combinar clasificadores Bagging El algoritmo
EJERCICIOS RESUELTOS DE ESTADÍSTICA II
EJERCICIOS RESUELTOS DE ESTADÍSTICA II RESUMEN DE EJERCICIOS DADOS EN CLASES POR: EILEEN JOHANA ARAGONES GENEY DISTRIBUCIONES DOCENTE: JUAN CARLOS VERGARA SCHMALBACH ESTIMACIÓN PRUEBAS DE HIPÓTESIS Grupo
OPTIMIZACIÓN EXPERIMENTAL. Ing. José Luis Zamorano E.
OPTIMIZACIÓN EXPERIMENTAL Ing. José Luis Zamorano E. Introducción n a la metodología de superficies de respuesta EXPERIMENTACIÓN: Significa variar deliberadamente las condiciones habituales de trabajo
Maestría en Bioinformática Probabilidad y Estadística: Clase 1
Maestría en Bioinformática Probabilidad y Estadística: Clase 1 Gustavo Guerberoff [email protected] Facultad de Ingeniería Universidad de la República Abril de 2010 Contenidos 1 Introducción 2 Teoría
ESTADISTICA GENERAL. INFERENCIA ESTADISTICA Profesor: Celso Celso Gonzales
ESTADISTICA GENERAL INFERENCIA ESTADISTICA Profesor: Celso Celso Gonzales Objetivos Entender los conceptos de estimación puntual y estimación por intervalos. Calcular e interpretar intervalos de confianza
Tema 4: Probabilidad y Teoría de Muestras
Tema 4: Probabilidad y Teoría de Muestras Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 4: Probabilidad y Teoría de Muestras Curso 2008-2009
1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA
MODELO DE REGRESIÓN LOGÍSTICA Introducción A grandes rasgos, el objetivo de la regresión logística se puede describir de la siguiente forma: Supongamos que los individuos de una población pueden clasificarse
VARIABLES ALEATORIAS DISCRETAS
VARIABLES ALEATORIAS DISCRETAS M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional Primavera 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Variables Aleatorias Variables Aleatorias Definición:
ANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.
ANEXO 1. CONCEPTOS BÁSICOS Este anexo contiene información que complementa el entendimiento de la tesis presentada. Aquí se exponen técnicas de cálculo que son utilizados en los procedimientos de los modelos
Definición 4.1 Diremos que una variable aleatoria discreta X tiene una distribución Uniforme de parámetro N, N 1, si. rg(x) = {1, 2,...
Índice 4 MODELOS DE DISTRIBUCIONES 4.1 4.1 Introducción.......................................... 4.1 4.2 Modelos de distribuciones discretas............................. 4.1 4.2.1 Distribución Uniforme
Tema 4. Probabilidad Condicionada
Tema 4. Probabilidad Condicionada Presentación y Objetivos. En este tema se dan reglas para actualizar una probabilidad determinada en situaciones en las que se dispone de información adicional. Para ello
18 Experimentos aleatorios. Sucesos y espacio muestral. Frecuencia y probabilidad de un suceso.
PRIMER CURSO DE E.S.O Criterios de calificación: 80% exámenes, 10% actividades, 10% actitud y trabajo 1 Números naturales. 2 Potencias de exponente natural. Raíces cuadradas exactas. 3 Divisibilidad. Concepto
Estimación de homografías
Estimación de homografías Visión en Robótica 1er cuatrimestre de 2013 1 Introducción del problema Una homografía es una transformación proyectiva que determina una correspondencia entre puntos El problema
Curso de Inteligencia Artificial
Curso de Inteligencia Artificial Introducción al Aprendizaje Automático Gibran Fuentes Pineda IIMAS, UNAM Definición El aprendizaje automático es el estudio de los metodos para programar las computadoras
Introducción. Autoencoders. RBMs. Redes de Convolución. Deep Learning. Eduardo Morales INAOE (INAOE) 1 / 60
Deep Learning Eduardo Morales INAOE (INAOE) 1 / 60 Contenido 1 2 3 4 (INAOE) 2 / 60 Deep Learning El poder tener una computadora que modele el mundo lo suficientemente bien como para exhibir inteligencia
ESTADÍSTICA I PRESENTACIÓN DE LA ASIGNATURA
ESTADÍSTICA I PRESENTACIÓN DE LA ASIGNATURA Descripción de la asignatura Estadística I El objetivo de la asignatura es proporcionar al estudiante conocimiento Departamento de Estadística y comprensión
UNIVERSIDAD DEL NORTE
UNIVERSIDAD DEL NORTE 1. IDENTIFICACIÓN DIVISIÓN ACADÉMICA DIVISIÓN DE CIENCIAS BÁSICAS DEPARTAMENTO MATEMÁTICAS Y ESATADÍSTICA. PROGRAMA ACADÉMICO ESTADÍSTICA I-AD CÓDIGO DE LA ASIGNATURA EST 1022 PRE-REQUISITO
PROGRAMA ACADEMICO Ingeniería Industrial
1. IDENTIFICACIÓN DIVISION ACADEMICA Ingenierías DEPARTAMENTO Ingeniería Industrial PROGRAMA ACADEMICO Ingeniería Industrial NOMBRE DEL CURSO Análisis de datos en Ingeniería COMPONENTE CURRICULAR Profesional
Introducción al Tema 9
Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. Tema 5. Series temporales y números índice. Introducción al Tema 9 Descripción de variables
Robusticidad de los Diseños D-óptimos a la Elección. de los Valores Locales para el Modelo Logístico
Robusticidad de los Diseños D-óptimos a la Elección de los Valores Locales para el Modelo Logístico David Felipe Sosa Palacio 1,a,Víctor Ignacio López Ríos 2,a a. Escuela de Estadística, Facultad de Ciencias,
Carrera: EMM Participantes Representante de las academias de ingeniería Electromecánica de los Institutos Tecnológicos.
1. DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Probabilidad y Estadística Ingeniería Electromecánica EMM - 0528 3 2 8 2.- HISTORIA
T1. Distribuciones de probabilidad discretas
Estadística T1. Distribuciones de probabilidad discretas Departamento de Ciencias del Mar y Biología Aplicada Inferencia estadística: Parte de la estadística que estudia grandes colectivos a partir de
PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE INGENIERIA DE SISTEMAS
1 1. DATOS INFORMATIVOS PONTIFICIA UNIVERSIDAD CATOLICA DEL ECUADOR FACULTAD DE INGENIERIA ESCUELA DE INGENIERIA DE SISTEMAS MATERIA: ESTADISTICA CODIGO: 11715 CARRERA: INGENIERIA DE SISTEMAS NIVEL: TERCERO
Tema 5 Algunas distribuciones importantes
Algunas distribuciones importantes 1 Modelo Bernoulli Distribución Bernoulli Se llama experimento de Bernoulli a un experimento con las siguientes características: 1. Se realiza un experimento con dos
INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión
INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión. regresión Salario-Estudios Source SS df MS Number of obs = 570 ---------+------------------------------
Matemáticas 2.º Bachillerato. Intervalos de confianza. Contraste de hipótesis
Matemáticas 2.º Bachillerato Intervalos de confianza. Contraste de hipótesis Depto. Matemáticas IES Elaios Tema: Estadística Inferencial 1. MUESTREO ALEATORIO Presentación elaborada por el profesor José
Capítulo 8. Análisis Discriminante
Capítulo 8 Análisis Discriminante Técnica de clasificación donde el objetivo es obtener una función capaz de clasificar a un nuevo individuo a partir del conocimiento de los valores de ciertas variables
ESTADISTICA APLICADA: PROGRAMA
Pág. 1 de 5 ESTADISTICA APLICADA: PROGRAMA a) OBJETIVOS Y BLOQUE 1: Teoría de Probabilidades 1.1 Comprender la naturaleza de los experimentos aleatorios y la estructura de los espacios de probabilidades,
Unidad Temática 2 Probabilidad
Unidad Temática 2 Probabilidad Responda verdadero o falso. Coloque una letra V a la izquierda del número del ítem si acepta la afirmación enunciada, o una F si la rechaza. 1. El experimento que consiste
Discretas. Continuas
UNIDAD 0. DISTRIBUCIÓN TEÓRICA DE PROBABILIDAD Discretas Binomial Distribución Teórica de Probabilidad Poisson Normal Continuas Normal Estándar 0.1. Una distribución de probabilidad es un despliegue de
Estadística Espacial en Ecología del Paisaje
Estadística Espacial en Ecología del Paisaje Introducción H. Jaime Hernández P. Facultad de Ciencias Forestales U. de Chile Tipos de datos en análisis espacial Patrones espaciales puntuales Muestras geoestadísticas
DIPLOMADO EN ESTADÍSTICA APLICADA
DIPLOMADO EN ESTADÍSTICA APLICADA DIPLOMADO EN ESTADÍSTICA APLICADA FUNDAMENTACIÓN El Diplomado en Estadística Aplicada posibilitará la actualización profesional y el desarrollo de competencias específicas
TEMARIO PARA EL EXAMEN DE ACCESO A LA ESPECIALIDAD MATEMÁTICAS PARA E.S.O. Y BACHILLERATO DEL MÁSTER DE SECUNDARIA
TEMARIO PARA EL EXAMEN DE ACCESO A LA ESPECIALIDAD MATEMÁTICAS PARA E.S.O. Y BACHILLERATO DEL MÁSTER DE SECUNDARIA 1. Números naturales, enteros y racionales. Principio de inducción. Divisibilidad y algoritmo
