INSTITUTO POLITÉCNICO NACIONAL

Tamaño: px
Comenzar la demostración a partir de la página:

Download "INSTITUTO POLITÉCNICO NACIONAL"

Transcripción

1 INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA UNIDAD PROFESIONAL ADOLFO LÓPEZ MATEOS INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA IMPLEMENTACIÓN DE MODELOS DE RUIDO BLANCO POR MEDIO DE UN GENERADOR DE SEÑALES ARBITRARIAS TESIS QUE PARA OBTENER EL TITULO DE: INGENIERO EN COMUNICACIONES Y ELECTRONICA PRESENTAN: Abraham Graniel Roman Alfonso Jiménez Rojo Jorge Nuñez López ASESORES: M. en C. Eric Gómez Gómez M. en C. José Ernesto Rojas Lima M. en C. Pedro Gustavo Magaña del Río MEXICO, D.F. OCTUBRE 2012

2 II Página

3 Dedicatorias A mis padres Raquel y Armando por brindarme siempre su apoyo incondicional, por luchar por mí, por cada uno de los sacrificios que tuvieron que hacer para que yo cumpliera mi sueño, por sus enseñanzas, su amor y paciencia, por haber sembrado en mí el deseo de superación constante y enseñarme a conducirme con rectitud y honradez en mi vida. No los defraudaré y haré que siempre se sientan orgullosos de mí, de lo que ustedes han forjado. Queridos padres Dios los bendiga y acompañe siempre; Gracias. A mis hermanos: Por siempre estar a mi lado apoyándome, brindándome consejos y enseñanzas; Muchas gracias queridos hermanos. A Dios, te agradezco me hayas dado vida, salud, fortaleza, bendiciones y fe para enfrentar cada uno de los obstáculos que encontré en mi camino, así como la oportunidad de disfrutar y compartir con mi familia y amigos estos momentos tan felices e inigualables en mi vida. Abraham III Página

4 Dedicatorias A mis padres Beatriz y Alfonzo por brindarme el apoyo incondicional para llegar hasta aquí, por sus enseñanzas y educación que me dieron, por hacer de mí una persona productiva, independiente y feliz. Gracias A mi hermana Claudia, que con la diferencia de un año, siempre ha estado apoyándome y deseándome lo mejor, porque ha sido y es mi primer y más querida amiga. Gracias A todos mis amigos, han sido una parte muy importante en mi vida en cada momento y en cada lugar, siempre creyeron en mí. Gracias A toda mi familia por alentarme siempre a continuar superándome. Gracias A los profesores que a lo largo de mi vida han forjado en mi a un profesionista, Gracias. Alfonso IV Página

5 Dedicatorias A mis padres Josefina y Ángel por brindarme la oportunidad de una educación como la que me dieron, por el apoyo incondicional en los momento mas difíciles de mi vida al igual de los más felices de ella, por luchar a mi lado en esta cuesta, por su amor, comprensión y afecto, por ser como son, por amarme y comprenderme, por ser lo mas importante en mi vida; Gracias. A Gabriela, Nayely, José Antonio, Felipe, Margarita, Verónica, que en la recta final de mi formación académica estuvieron y me apoyaron; Gracias. A Lizbeth Abigail, por ser la persona que me impulsó de manera incondicional al final de mi educación; Gracias. A todas las personas que creyeron en mí y estuvieron cuando más lo necesite; Gracias. A todos y cada uno de los profesores que me formaron a lo largo de mi vida, y a los que dejaron huella en mi formación; Gracias. Jorge V Página

6 Agradecimientos Al INSTITUTO POLITECNICO NACIONAL y la Escuela Superior de Ingeniería Mecánica y Eléctrica, por haber proporcionado los medios de nuestra formación académica, moral y profesional. A nuestro profesor, asesor y amigo Pedro Gustavo Magaña del Río por formar parte de este logro con sus consejos, pláticas y enseñanzas que me hicieron crecer como persona y como profesional. A nuestros asesores: M. en C. Eric Gómez Gómez M. en C. José Ernesto Rojas Lima A nuestros sinodales: Ing. Francisco Hernández Rangel Ing. Cecilio Rojas Espejo Abraham, Alfonso y Jorge VI Página

7 Implementación de modelos de ruido blanco por medio de un generador de señales arbitrarias VII Página

8 O B J E T I V O Integrar experimentalmente una aplicación para la generación de una señal de ruido blanco gaussiano VIII Página

9 Índice INTRODUCCIÓN ANTECEDENTES XIV XVI Capítulo 1: Elementos de la Teoría de la Probabilidad y Variables Aleatorias 1.1 Introducción a la Probabilidad Experimentos aleatorios Espacio Muestra y Eventos Axiomas de Probabilidad y cálculo de probabilidad de eventos Variables Aleatorias Definición y clasificación Función de distribución Función de densidad de probabilidad Función de masa de probabilidad Función de variables aleatorias Promedios Estadísticos Momento de una variable aleatoria Esperanza Varianza Covarianza y coeficiente de correlación 21 IX Página

10 1.4 Ejemplos de variables aleatorias Variable aleatoria Uniforme Variable aleatoria Gaussiana Binomial Poisson 33 Capítulo 2: Procesos aleatorios 2.1 Introducción Proceso aleatorio Definición matemática de un proceso aleatorio Procesos estacionarios Estadísticas de procesos aleatorios Media Auto correlación Correlación Procesos Ergódicos Trasmisión de un proceso aleatorio a través de un filtro lineal invariante con el tiempo Densidad Espectral de Potencia Proceso aleatorio Gaussiano 56 X Página

11 Capítulo 3: Tipos de ruido y técnicas para generar números aleatorios 3.1 Ruido en los sistemas de comunicaciones Ruido de Disparo Ruido Térmico Ruido Blanco Generación de números aleatorios Propiedades de los números aleatorios Generación de números pseudo-aleatorios Técnicas de generación de números aleatorios Generación de variables aleatorias Transformación directa para la distribución normal y lognormal Histogramas 78 Capítulo 4: Realización Práctica 4.1 Generador de señales Formas de onda Software Interacción con el software y el generador Generación de ondas arbitrarias Localidades de memoria Generación de archivos y cabeceras Generación de señales a través de los archivos.txt y.csv Análisis experimental del ruido del generador Generación de la señal de ruido 107 XI Página

12 4.3.2 Pruebas estadísticas Generación de Ruido Blanco Gaussiano Generación del ruido por medio del MATLAB e intercalación Generación de ruido por medio de una interfaz gráfica (MATLAB) Interfaz Gráfica, generación de archivo.txt de autocorrelación y ruido Resultados de la interfaz Gráfica 127 Conclusiones 137 Anexos Anexo 1 Hoja de especificaciones del generador DG2041A 139 Anexo 2 Código de programación en MATLAB 149 Glosario 151 Bibliografía 154 XII Página

13 Introducción

14 INTRODUCCIÓN El ruido se define como una señal ajena que está presente en un sistema, en el ámbito de las comunicaciones es de gran interés analizarlo y si es posible reducirlo, con lo cual se obtiene un mejor desempeño y una mayor confiabilidad en los sistemas de comunicaciones. Esta señal no deseada se puede generar por diversas causas, como pueden ser: los componentes electrónicos de los propios sistemas, el hombre e incluso algunas causas propias de la naturaleza. La señal puede volver erróneos y no confiables los resultados que se esperan de un determinado sistema, si es excesivo, el ruido, provoca una comunicación nada confiable, lo que puede desencadenar que se considerare al sistema como no funcional, no confiable o simplemente no operable. El ruido es una señal aleatoria, es decir que no se sabe el valor próximo que tomará, aunque se hacen muchas aproximaciones y simulaciones de éste, aun es imposible saber su valor siguiente. El ruido es un parámetro muy importante y de gran relevancia que se debe de tomar en cuenta para el diseño, la fabricación, la implementación y el análisis de un determinado sistema de comunicaciones. Al estudiar este fenómeno se ha comprobado que se considera como inherente e impredecible (aleatorio). Debido a que es imposible eliminarlo, los sistemas han ido mejorando, lo único que ha conseguido es reducirlo, esta reducción se realiza por medio de filtros, transmisores y receptores que cuentan con componentes de mayor calidad que contribuyen a tener una mejor calidad de la señal. Por lo anterior, es interesante y muy conveniente poder tener generadores de ruido en las carreras especializadas en comunicaciones, con lo cual se pueden realizar pruebas modificando los parámetros y haciendo interaccionar con los diferentes sistemas disponibles en los laboratorios; Al poder modificar ciertos parámetros y lograr que los sistemas se comporten lo más cercano a lo que uno desea, se obtienen múltiples beneficios, como el aprovechamiento, la comprensión y el aprendizaje en general es mucho mayor y de mejor calidad. Se pueden desarrollar numerosos experimentos, diseño de sistemas, análisis de los que ya se encuentran en funcionamiento, etc. Todo esto con un mayor grado de precisión, lo cual es bastante benéfico para que estos experimentos y simulaciones permitan semejar de manera más cercana las situaciones de la vida cotidiana y en general en los sistemas y aplicaciones reales. XIV Página

15 Antecedentes

16 ANTECEDENTES Las instituciones de educación superior en las universidades públicas de nuestro país se caracterizan por la alta dependencia de los presupuestos para el equipamiento necesario de los laboratorios existentes, más aun tratándose de alta especialización técnica, por lo que es sumamente común que se utilicen al máximo los recursos existentes para la impartición práctica de las materias que en los planes de estudio que así lo indiquen. Adicionalmente a los conocimientos teóricos requeridos para la ejecución de las prácticas, se debe tener consistencia con la capacidad de los equipos que se utilizarán. Debido a esta importancia surge la necesidad de hacer un reconocimiento de los equipos con los que cuenta el laboratorio de comunicaciones de la Escuela Superior de Ingeniería Mecánica y Eléctrica unidad Zacatenco del Instituto Politécnico Nacional. En dicho reconocimiento, existen aplicaciones y herramientas que en ocasiones se desconocen y que en realidad son de gran importancia para comprender, facilitar y desarrollar prácticas que permitan reforzar e incluso ampliar los conocimientos teóricos adquiridos previamente en las aulas de estudio. Sin embargo, dentro del reconocimiento hay algunas limitantes físicas y lógicas que estos equipos pueden llegar tener, estas limitantes permiten hacer especulaciones y abren un panorama distinto sobre los experimentos y prácticas que se realizan, incluso llevan a pensar qué pasaría si hiciera..? ó qué pasaría si tuviera.? Debido a esto, se ha despertado un gran interés en diversos integrantes de la institución tal es el caso de los jefes de laboratorio, profesores, técnicos auxiliares y alumnos por contribuir al mejor aprovechamiento y a extender la funcionalidad de los equipos existentes en las instalaciones de los laboratorios. Con un trabajo conjunto y el apoyo de las autoridades correspondientes, cada vez se están realizando más investigaciones para poder desarrollar herramientas, programas y si es posible realizar algunas adaptaciones a los equipos, para que estos laboratorios estén más equipados y se les pueda obtener el máximo aprovechamiento ofreciendo más beneficios para todos y cada uno de los equipos existentes, esto permite que los usuarios de los quipos puedan tener más variantes para la investigación, comprensión y desarrollo de prácticas especializadas, así como el mejoramiento de las ya existentes. XVI Página

17 CAPÍTULO 1 Elementos de la teoría de la probabilidad y variables aleatorias

18 1.1 Introducción a la Probabilidad En la teoría de las comunicaciones encontramos muy seguido la palabra aleatorio, que tiene como significado impredecible. Por tal motivo es muy importante su análisis en las comunicaciones, debido a que el mensaje no se conoce de antemano o lo que es lo mismo no es determinístico. Si el receptor, en un sistema de comunicaciones, tuviera la certeza de lo que se le envía, no habría necesidad de la comunicación. Entonces, los mensajes que se envían desde el transmisor, son mensajes aleatorios, además, la señal transmitida siempre va acompañada por ruido que introduce el sistema, este ruido son perturbaciones impredecibles. Basándose en análisis y experimentación se pueden encontrar ciertas regularidades en los procesos aleatorios que permitan describirlos de una manera probabilística, con esta herramienta seremos capaces de analizar el efecto del ruido en los sistemas de comunicaciones y con ello la calidad del mensaje que el receptor recibe Experimentos aleatorios En probabilidad, cualquier proceso de observación es referido como experimento. El resultado de una observación se denomina salidas del experimento. Un experimento es llamado experimento aleatorio si sus salidas no pueden ser predecibles. Algunos ejemplos que se presentan de manera común: Por mencionar algunos ejemplos tenemos el lanzamiento de un dado, los sorteos, urnas, etc. Donde en cada uno de estos influyen distintos factores que repercuten directamente en el resultado (si el dado tiene imperfecciones, si los sorteos se realizan de manera legal, etc.) Espacio Muestra y eventos El conjunto de todas las posibles resultados de un experimento aleatorio es llamado espacio muestra S. Un punto en S es llamado punto muestra. Cada resultado de un experimento aleatorio corresponde a un punto muestra. 2 Página

19 Espacio muestra discreto: Se dice que un espacio muestral, es discreto si su resultado puede ponerse en una relación uno a uno con el conjunto de los enteros positivos, en otras palabras es un suceso finito o infinito numerable, es decir acotado, ejemplo: El sacar una carta de una baraja de 52 cartas. Espacio muestra continuo: Se dice que un espacio muestral, es continuo sí sus resultados son un intervalo de números reales, en otras palabras son espacios donde el número de sucesos son infinitos e incontables, ejemplo: El clima, un temblor, terremotos, etc. Definamos un conjunto A que puede ser llamado subconjunto de B, denotado por A B si todos los elementos de A son también elementos de B (Fig.1.1.1). Cualquier subconjunto del espacio muestra S es llamado evento. Los miembros de este conjunto tienen una característica común. Fig Conjunto A que es subconjunto de B donde todos los elementos del conjunto A pertenecen de igual manera al conjunto B Por características comunes debe entenderse que únicamente un grupo de resultados en particular satisface la característica. Se dice que ha ocurrido un evento si los resultados del experimento aleatorio incluyen a algunos de los que definen al evento. En este contexto, el espacio muestral, evento en sí mismo, puede entenderse como un evento seguro, puesto que se tiene un 100% de certidumbre de que ocurriera un resultado del espacio muestral cuando el experimento se lleva a cabo. Para completar se dan las siguientes definiciones. 1.- El evento que contiene a ningún resultado del espacio muestral recibe el nombre de evento nulo o vacío. 3 Página

20 2.- El evento formado por todos los posibles resultados en E 1 o E 2 o en ambos, recibe el nombre de la unión de E 1 y E 2 y se denota por. Ejemplo Fig dónde: Fig Conjunto A que equivale al conjunto conjunto que tiene unión al conjunto B que corresponde al 3.- El evento formado por todos los resultados comunes tanto E 1 como a E 2 recibe el nombre de intersección de E 1 y E 2 y se denota por. Ejemplo Fig dónde: Fig Conjunto A que equivale al conjunto corresponde al conjunto, que tiene intersección al conjunto B que 4 Página

21 4.- Se dice que los eventos E 1 y E 2 son mutuamente excluyentes o disjuntos si no tienen resultados en común; en otras palabras, dónde: 5.- Si cualquier resultado de E 2 también es un resultado de E 1, se dice que el evento E 2 está contenido en E 1, y denota por 6.- El complemento de un evento E con respecto al espacio muestral S, es aquel que tiene a todos los resultados de S que no se encontraba en E, y se denota por Dónde Axiomas de Probabilidad y cálculo de probabilidad de eventos Al realizar una asignación de números reales a los eventos definidos en S se le conoce como la probabilidad. En la definición de axioma, la probabilidad de del evento E es un número real asignado a E que satisface los siguientes tres axiomas: Axioma 1: Página

22 En el anterior axioma lo que se busca es que se trabaje con números no negativos Axioma 2: 1.2 Este axioma reconoce que el propio espacio muestra es un suceso, y dado que es un suceso que contiene todos, este debería tener la probabilidad más alta posible, en este caso la unidad, por ello S se conoce como el suceso o evento seguro. Axioma 3: P ( ) = P ( ) + P ( ) si = 1.3 Recordar que El axioma establece como la probabilidad del suceso definido como la unión de cualquier número de sucesos mutuamente excluyentes es igual a la suma de la probabilidad de cada suceso. La razón de estos tres axiomas se convierte en aparente cuando, por ejemplo, se recuerda la interpretación de la probabilidad como una frecuencia relativa, es decir, la probabilidad de un evento refleja la proporción de veces en que ocurrirá cuando el experimento se repite, esta se obtiene dividiendo la frecuencia absoluta (es el número de veces que aparece un valor en el estudio) del evento o suceso, entre el número de veces que se realizó el experimento. La frecuencia relativa se puede definir a través de un límite donde el número de sucesos totales tiende a infinito, donde este límite evalúa el número de ocasiones que se ha presentado un evento particular sobre el número total de eventos 6 Página

23 Donde: na =Número de eventos particulares n= Número de eventos totales Un ejemplo de frecuencia relativa: Se lanza un dado 50 veces, en el experimento el número 5 sale 8 veces, calcular la frecuencia relativa de dicho evento. Frecuencia Relativa = 8/50=0.16 Donde 8 es número de veces que ocurre el suceso y el 50 es el número de veces que se repite el experimento. Los axiomas también son evidentes para la interpretación subjetiva de la probabilidad, dado que para este cualquier grado de creencia se convierte en una proporción. De ahí que la probabilidad exhiban las características de las proporciones, en las que la probabilidad es un número entero entre cero y uno, y dado que es forzoso que ocurra un resultado cuando se lleva a efecto un experimento, la probabilidad de S es uno. 1.2 Variables Aleatorias Definición y clasificación Considere un experimento aleatorio con espacio muestra S. Una Variable aleatoria X(λ) es una función que asigna un número real llamado valor de X(λ) a cada punto muestra λ de S. Usamos la letra X para esta función en vez de X(λ) y usamos v.a. para denotar la variable aleatoria. Ejemplo: Fig Fig Una variable aleatoria asigna un número real llamado 7 Página

24 Se dice que X es aleatoria porque involucra la probabilidad de los resultados del espacio muestral, y X es una función definida sobre el espacio muestral, de manera que trasforma todos los posibles resultados del espacio muestral en cantidades numéricas. Esta variable aleatoria la podemos considerar como una función que aplica para todos los elementos del espacio muestral S, a puntos del eje real o solo para algunas partes de él. El espacio muestra S es llamado el dominio de la v.a. X, y la colección de todos los números es llamado el rango de la v.a. X. Nótese que dos o más puntos muestra diferentes pueden dar el mismo valor de X (λ) (Fig ) pero dos diferentes números en el rango no pueden ser asignados a el mismo punto muestra (Fig.1.2.3). Fig Dos puntos muestra en el mismo valor de x Fig Un punto muestra no se presenta en dos valores de x Si X puede tomar solo un número contable de valores distintos, entonces X es llamado variable aleatoria discreta, sin embargo un espacio muestral puede ser discreto, continuo, o incluso una mezcla de puntos discretos y continuos. X=(x1,x2,x3..xn) 8 Página

25 Si X puede asumir cualquier valor dentro de uno o más intervalos del eje real, entonces X es llamada variable aleatoria continua. El número de llamadas telefónicas que llegan a una oficina en un tiempo finito es un ejemplo de una variable aleatoria discreta, y el tiempo exacto en que llega la llamada es un ejemplo de una variable aleatoria continua Función de distribución acumulativa (continuo y discreto) Para el caso continuo, al considerar los valores de una variable aleatoria es posible desarrollar una función matemática que asigne una probabilidad a cada realización x de la variable aleatoria X. Esta función recibe el nombre de función de probabilidad de la variable aleatoria X. El término más general, distribución de probabilidad, se refiere a la colección de valores de la variable aleatoria y a la distribución de probabilidad entre estos. La función de distribución [o función de distribución acumulativa de X es la función definida por: 1.5 La función de distribución es igual a la probabilidad de que una variable aleatoria discreta X sea menor o igual a un valor x, donde Algunas propiedades específicas de la función de distribución son las siguientes: Cuando el límite de la función de distribución tiende al infinito negativo tiene un valor cero - 1.5a 9 Página

26 Cuando el límite de la función de distribución tiende al infinito positivo tiene un valor uno La función de distribución depende directamente de la variable aleatoria, si una variable aleatoria adquiere un valor mayor a otra variable aleatoria, su función de distribución también será mayor 1.5b 1.5c Para representar estas propiedades observar la siguiente gráfica (Fig.1.2.4) Fig Propiedades de la función de distribución De la ecuación 1.5 podemos calcular otras probabilidades Página

27 La función de distribución acumulativa de una v.a. continua X, la cual nos ayuda a conocer la función de densidad de probabilidad puede ser obtenida por la siguiente expresión: Donde es una variable aleatoria auxiliar y donde En la siguiente gráfica (Fig ) se puede observar la expresión gráfica de la ecuación 1.8 Figura Función de distribución acumulativa 11 Página

28 Para el caso discreto la función de distribución acumulativa X puede ser ejemplificada por la figura de una v.a. discreta Figura La función de distribución acumulativa de una v.a. discreta Función de densidad de probabilidad La distribución de probabilidad de una variable aleatoria continua X está caracterizada por una función que recibe el nombre de función de densidad de probabilidad. Esta función no es la misma función de probabilidad que para el caso discreto. La probabilidad de que una variable aleatoria continua X tome un valor específico x es cero Página

29 Es por esto que la función de densidad de probabilidad sirve como medio para determinar la probabilidad de un intervalo P ( ) 1.9a La función de densidad de probabilidad se define como la derivada de la función de distribución (Ecuación 1.8); (x)= 1.10 Las propiedades de (x): La función de densidad de probabilidad no es negativa 1.11 La integración de todos los valores de la función de densidad de probabilidad da como resultado la unidad 1.12 Se puede evaluar la función en un cierto intervalo con una integración de dicho intervalo Página

30 En la siguiente gráfica se ilustran las propiedades de la función de densidad de probabilidad (Fig ). Fig Propiedades de la función de densidad de probabilidad Función de masa de probabilidad La distribución de probabilidad o función de masa de probabilidad (fmp) de una variable discreta para cada número x se puede definir como: Página

31 Para cada valor posible x; de la variable aleatoria, la función masa de probabilidad especifica la probabilidad de observar dicho valor cuando se realiza el experimento. Cualquier función masa de probabilidad requiere las siguientes condiciones: 1.- La probabilidad es mayor a cero: 2.- La suma de todas las posibles da como resultado uno: Ejemplo: Considere un grupo de cinco donadores de sangre potenciales, a, b, c, d y e, de los cuales solo a y b tienen sangre tipo O+. Se determinará en orden aleatorio el tipo de sangre con cinco muestras, una de cada individuo hasta que se identifique un individuo O+. Sea la variable aleatoria Y= el número de exámenes de sangre para identificar un individuo P+. Entonces la función masa de probabilidad de Y es: ( ) ( ) ( ) ( ) ( ) ( ) 15 Página

32 Tabulada la función de masa de probabilidad es: Y P(y) Tabla 1 Valores de la variable aleatoria Y y sus probabilidades Donde cualquier valor de Y que no aparece en la tabla 1 recibe cero de probabilidad. La figura muestra una gráfica lineal de la función de masa de probabilidad. Fig Gráfica de la función masa de probabilidad. 16 Página

33 1.2.5 Función de variables aleatorias Sea X una variable aleatoria de la que conocemos su distribución de probabilidad. Nos interesa estudiar una función: 1.15 Dependiendo del tipo de variable aleatoria que sea X, así es Y. Si X es discreta, Y es discreta. Si X es continua, Y puede ser discreta o continua. Se puede expresar la función de distribución de la v.a. Se busca determinar la densidad de en términos de la densidad de x, para ello se utilizara el siguiente teorema fundamental: Para encontrar una para una y especifica, se resuelve la ecuación Denotando las raíces reales para 1.16 Se puede observar que 1.17 Donde ( ) es la primera derivada de. 17 Página

34 1.3 Promedios Estadísticos Momentos de una variable aleatoria Los momentos de una variable aleatoria X son los valores esperados de ciertas funciones de X. Esto forma una colección de medidas descriptivas que pueden emplearse para caracterizar la distribución de probabilidad de X y especificarlas si todos los momentos de X son conocidos. A pesar de que los momentos de X pueden definirse alrededor de cualquier punto de referencia, generalmente se definen alrededor del cero o del valor esperado de X. Definición 1: Sea X una variable aleatoria. El r-ésimo momento de X alrededor del cero se define por: El primer momento alrededor del cero es la media o valor esperado de la variable aleatoria y se denota por µ; de esta manera se tiene que La media de una variable aleatoria se considera como una cantidad numérica alrededor de la cual los valores de la variable aleatoria tienden a agruparse. Por lo tanto, la media es una medida de tendencia central. Definicion2: Sea X una variable aleatoria. El r-ésima momento de X o el r-ésimo momento respecto a la media de X se define por: 18 Página

35 El momento central cero de cualquier variable aleatoria es uno, dado que: 1.22 De manera similar, el primer momento central de cualquier variable aleatoria es cero, dado que: 1.23 El segundo momento central: 1.24 Recibe el nombre de varianza de la variable aleatoria. Puesto que: Página

36 1.3.2 Esperanza El valor promedio de una variable aleatoria después de un número grande de experimentos, es su valor esperado. El valor esperado de una variable aleatoria X es el promedio o valor medio de X y está dado por: En donde y son las funciones masa de probabilidad y de densidad de probabilidad, respectivamente. En general, el valor esperado de una función g(x) de la variable aleatoria X, está dado por La esperanza de una variable aleatoria X no es una función de X sino un número fijo y una propiedad de la distribución de probabilidad de X. Por otra parte, el valor esperado puede no existir dependiendo de si la correspondiente suma o integral no converge en un valor finito. 20 Página

37 1.3.3 Varianza La varianza de cualquier variable aleatoria es el segundo momento alrededor del origen menos el cuadrado de la media. Generalmente se denota por σ 2 o Var(X). La varianza de una variable aleatoria es una medida de la dispersión de la distribución de probabilidad de ésta Así Covarianza y coeficiente de Correlación El (k, m) ésimo momento de una v.a. bidimensional (X, Y) está definido por ( ) Página

38 El (1, 1) momento de (X, Y) 1.33 Es llamado la correlación de X y Y. Si E(X Y) = 0, entonces decimos que X y Y son ortogonales. La covarianza de X y Y, denotada por Cov (X, Y) o σ XY, es definida por: 1.34 Expandiéndola, obtenemos 1.35 Si Cov(X) = 0, Entonces decimos que X y Y son no correlacionadas. De la ecuación anterior vemos que X y Y son no correlacionadas si 1.36 Note que si X y Y son independientes, entonces se puede observar que son no correlacionadas. El coeficiente de correlación, denotado por o se define por Página

39 1.4 Ejemplos de variables aleatorias Variable Aleatoria Uniforme. Supongamos que ocurre un evento en que una variable aleatoria toma valores de un intervalo finito, de manera que estos se encuentran distribuidos igualmente sobre el intervalo. Esto es, la probabilidad de que la variable aleatoria tome un valor en cada subintervalo de igual longitud es la misma. Se dice entonces que la variable aleatoria se encuentra distribuida uniformemente sobre el intervalo. Definición 1: Se dice que una variable aleatoria X está distribuida uniformemente sobre el intervalo si su función de densidad de probabilidad está dada por: { 1.38 La función de densidad de probabilidad de una distribución uniforme es constante en el intervalo, como se ilustra en la figura 1.4.1; Por esto, tal distribución también se conoce como distribución rectangular. Figura Gráfica de la función de densidad de probabilidad uniforme 23 Página

40 La función de distribución acumulativa se determina por: Se sigue entonces que, para cualquier subintervalo interior : 1.41 Gráficamente se representa a la distribución acumulativa en la figura 1.4.2: Figura Gráfica de la distribución acumulativa 24 Página

41 Esto nos ilustra que la probabilidad de que X tome valores del subintervalo es por la longitud del subintervalo y, de esta forma, igual a la probabilidad de que X tome valores en cualquier otro subintervalo de la misma longitud. La distribución uniforme proporciona una representación adecuada para redondear las diferencias que surgen al medir cantidades físicas entre los valores observados y los reales. Ejemplo Sea X un número aleatorio entre 0 y 5. Entonces X tiene una distribución uniforme dada por Por lo tanto 25 Página

42 1.4.2 Variable aleatoria Gaussiana Se dice que una variable aleatoria X es de tipo Gaussiana si su función de densidad tiene la siguiente forma: 1.42 Donde es la varianza y es la media. Esta función se ha dibujado en la figura 1.4.3: Figura La función de densidad de una variable aleatoria gaussiana Su valor máximo se produce en. Su amplitud alrededor del punto está relacionada con. La función decrece a veces su máximo en Página

43 La densidad Gaussiana es la más importante de todas las densidades y se emplea prácticamente en todas las áreas de las ciencias y de la ingeniería. Esta importancia radica en que permite describir de forma precisa muchas magnitudes importantes del mundo real, especialmente cuando dichas magnitudes son el resultado de muchos pequeños efectos aleatorios, que se combinan para crear la magnitud de interés. La función de distribución es: 1.44 Esta integral no tiene una solución cerrada conocida y debe evaluarse por métodos numéricos o aproximaciones. El caso normalizado donde, se obtiene la función de distribución correspondiente por. A partir de (1.44), es: 1.45 Que es una función solo de x, para un valor negativo de x se usa la relación: Página

44 Para demostrar que la función de distribución general de (1.33) puede expresarse en términos de la función dada por (1.34), hacemos el cambio de variable: 1.47 En 1.47 y obtenemos: 1.48 A partir de (1.48) esta expresión es claramente equivalente a: ( ) 1.49 La figura describe el comportamiento de la expresión de Figura Función de distribución de una variable aleatoria gaussiana 28 Página

45 La función también puede evaluarse mediante aproximaciones. Primero se escribe la función como: Donde ) Se conoce como la función Q. Al igual que, no tiene una solución cerrada conocida, pero lo aremos por aproximación dada por la fórmula: 1.52 Donde a y b son constantes siendo Binomial Se puede imaginar un experimento en el que el resultado es la ocurrencia o la no ocurrencia de un evento. Sin pérdida de generalidad, llámese éxito a la ocurrencia del evento y fracaso a su no ocurrencia. Además, sea p la probabilidad de éxito cada vez que el experimento se lleva a cabo y la probabilidad de fracaso. Supóngase que el experimento se realiza n veces, y cada uno de estos es independiente de todos los demás, y sea X la variable aleatoria que representa el número de éxitos en los n ensayos. 29 Página

46 El interés está en determinar la probabilidad de obtener exactamente éxitos durante los n ensayos. Las dos suposiciones claves para la distribución binomial son: 1.- La probabilidad de éxito p permanece constante para cada ensayo. 2.- Los n ensayos son independientes entre sí. Para obtener la función de probabilidad de la distribución binomial, primero se determina la probabilidad de tener, en n ensayos, x éxitos consecutivos seguidos de n x fracasos consecutivos. Ahora bien se tiene: La probabilidad de obtener exactamente x éxitos y n-x fracasos en cualquier otro orden es la misma puesto que los factores p y (1-p) se reordenan de acuerdo con el orden particular. Por lo tanto, la probabilidad de tener x éxitos y n-x fracasos en cualquier orden, es el producto de por el número de ordenes distintos. Este último es el número de combinaciones de n objetos tomado x a la vez. De acuerdo con lo anterior se tiene la siguiente definición: Definición 1: Sea X una variable aleatoria que representa el número de éxitos en n ensayos y p la probabilidad de éxitos con cualquiera de estos. Se dice entonces que X tiene una distribución binomial con función de probabilidad. { Página

47 Los parámetros de la distribución binomial son n y p. Estos definen una familia de distribuciones binomiales, en donde cada miembro tiene la función de probabilidad determinada por (1.50). Para ilustrarlas el efecto de estos parámetros la figura proporciona algunas gráficas de la distribución binomial. Figura Gráfica de la función binomial de probabilidad Ejemplo: utilizando la fórmula 1.53 sea n = 5 y p = 0.4 entonces: Así: 31 Página

48 El nombre distribución binomial proviene del hecho de que los valores solo los términos sucesivos de la expansión binomial de esto es: para 1.54 Pero dado que también verifica que para es una función de probabilidad., este hecho La media de una variable aleatoria binomial es: 1.55 La varianza de una variable aleatoria binomial es: Página

49 1.4.4 Poisson La variable aleatoria representa el número de eventos independientes que ocurre a una variable aleatoria. Muchos eventos aleatorios ocurren de manera independiente con una velocidad constante en el tiempo o en el espacio. La distribución de Poisson es el principal modelo de probabilidad empleado para analizar problemas de líneas de espera, además, ofrece una aproximación excelente a la función de probabilidad Binomial cuando p es pequeño y n grande. Definición 1: Sea X una variable aleatoria que representa el número de eventos aleatorios independientes que ocurren a una rapidez constante sobre el tiempo o el espacio. Se dice que la variable aleatoria X tiene una distribución de Poisson con función masa de probabilidad. { 1.57 El parámetro de la distribución de Poisson es λ, el número promedio de ocurrencias del evento aleatorio por unidad de tiempo. Para valores mayores que cero, λ define una familia de distribuciones con una función de probabilidad determinada por (1.57), en la figura se proporcionan algunas gráficas de la función de probabilidad de Poisson, para distintos valores de λ: Figura Gráfica de la función de probabilidad de Poisson 33 Página

50 Puede verificarse que (1.57) es una función de probabilidad, puesto que para 1.58 Ejemplo: sea ; entonces: De esta forma se tiene: 34 Página

51 Con este ejemplo se determina que la probabilidad individual son más y más pequeñas conforme la variable aleatoria toma valores cada vez más grandes. Ésta es una característica de la distribución de Poisson. La probabilidad de que una variable aleatoria de Poisson X sea menor o igual a un valor de x se determina por la función de distribución acumulativa Ejemplo: sea La probabilidad de que X sea menor que tres es: Los momentos de la variable aleatoria de Poisson se determinan mediante los mismos procedimientos utilizados para la variable aleatoria binomial. Si X una variable aleatoria de Poisson, su valor esperado es: Página

52 Para la varianza X: 1.61 Entonces, de Tenemos: Y la varianza de X es: Página

53 CAPÍTULO 2 Procesos aleatorios 37 Página

54 2.1 Introducción En el mundo práctico de la ingeniería y la ciencia, es necesario trabajar con formas de onda variables con el tiempo. Con frecuencia, nos encontraremos en los sistemas prácticos con forma de onda temporales aleatorias. Casi siempre una señal de información de un sistema de comunicaciones será aleatoria. Por ejemplo, el flujo de bits en un sistema de comunicaciones binario es un mensaje aleatorio porque cada que se genera un bit se genera de manera aleatoria (Fig.2.1.1). Fig Secuencia de bits aleatorios Por otro lado, una señal deseada a menudo va acompañada de una forma de onda aleatoria no deseada como el ruido. El ruido afecta o se mezcla con el mensaje y fundamentalmente limita el rendimiento del sistema. La idea de un modelo matemático utilizado para describir un fenómeno físico se establece perfectamente en las ciencias físicas y en la ingeniería. En este contexto es posible distinguir dos clases de modelos matemáticos: determinístico y estocástico. Se afirma que un modelo es determinístico si no hay incertidumbre acerca de su comportamiento dependiente del tiempo en cualquier instante. Sin embargo, en muchos problemas reales el empleo de un modelo determinístico resulta inapropiado porque el fenómeno físico de interés incluye demasiados factores desconocidos. A pesar de esto, es factible considerar un modelo descrito en términos probabilísticos en lo que señalamos como la probabilidad de un valor futuro que se encuentra entre dos limites especificados. En un caso de este tipo, se afirma que el modelo será estocástico o aleatorio. 38 Página

55 2.2 Proceso aleatorio Para conocer el concepto de proceso aleatorio es necesario que se amplíe el concepto de variable aleatoria, debido a que en un proceso aleatorio se debe tener en cuenta el tiempo. Una variable aleatoria X es una función de los resultados posibles s de un determinado experimento, para el caso de un proceso aleatorio dependerá de s pero también del tiempo. 2.1 A la familia de todas estas funciones designadas por aleatorio. se le denomina proceso Para determinar las probabilidades de los diversos resultados posibles de un experimento, este se repite muchas veces.sin embargo no es lo mismo realizar un determinado experimento con diferentes equipos, que realizar un experimento muchas veces con uno solo. En principio podría esperarse que ambos métodos arrojaran los mismos resultados si las condiciones y equipos fueran idénticos y se mantuvieran así durante el experimento, pero como se mencionó anteriormente no es así. La aplicación de conceptos probabilísticos a los sistemas de comunicación están realmente más cerca del segundo. De manera conceptual, el segundo método podría considerarse como un generador de números aleatorios que produce un número entre 1 y 6, accionado por un reloj. Ahora supóngase que se tienen muchos de estos generadores accionados por un reloj común. Dicha colección de fuentes de señal se llama conjunto. Las señales de los generadores de números aleatorios individuales (que están en función del tiempo) se llaman funciones muestra, cuando hay i posibles resultados discretos. El conjunto de las posibilidades funciones se llama proceso aleatorio. Para tener más clara la idea de que proceso aleatorio se pondrá el siguiente ejemplo, podrían lanzarse de manera simultánea 100 monedas en un tiempo t y determinar las estadísticas sobre esta base (Fig.2.1.2). Nótese que las estadísticas y los promedios así obtenidos son los que se han visto en algunos ejemplos anteriores. 39 Página

56 Fig El lanzamiento de 100 monedas al mismo tiempo tendrán diferentes resultados estadísticos y probabilísticos que si se lanza una sola moneda 100 veces. Por otra parte, se podría observar una sola función de muestra por periodo de tiempo y determinar sus estadísticas (esto correspondería a lanzar una moneda 100 veces en sucesión Fig.2.1.2). De estas observaciones pueden calcularse promedios llamados de tiempo. Algunas de estas ideas se pueden ilustrar graficando la salida de cierto número de generadores de señales aleatorias idénticos. Los procesos aleatorios se clasifican como continuos o discretos. Un proceso aleatorio continuo se compone de un proceso aleatorio con variables aleatorias asociadas de distribución continua. El proceso aleatorio Gaussiano es un ejemplo de un proceso aleatorio continuo. Un proceso aleatorio discreto se compone de variables aleatorias con distribución discreta Definición matemática de un proceso aleatorio Los procesos aleatorios tienen funciones de dos variables: 1) Están en función del tiempo 2) Están en función de un espacio muestra Además son aleatorios porque de llevar a cabo un experimento, no es posible definir con exactitud las formas de onda que se observarán en el futuro. Suponga que asignamos un tiempo a cada punto muestra s acuerdo con la siguiente regla: Fig de una función S de Página

57 Figura La función depende de 2 variables Para representar un proceso estocástico podemos usar la notación variables aleatorias, tiene las siguientes interpretaciones: usando 1.- es una función de tiempo singular (o una muestra del proceso dado) en este caso, t es una variable y es fijo 2.- Si t es fijo y es una variable, entonces es una v.a. igual al estado del proceso dado en el tiempo t 3.- Si t y s son fijos, es un número. Donde T es el intervalo de observación total. En un punto fijo s de la muestra, la gráfica de la función en función del tiempo t recibe el nombre de realización o función de la muestra del proceso aleatorio Página

58 2.3- Procesos estacionarios Un proceso aleatorio se convierte en una variable aleatoria cuando se fija un tiempo en un determinado valor, esta variable aleatoria tendrá sus correspondientes propiedades estadísticas (valor medio, varianza, etc.). Si dos variables aleatorias se obtienen a partir del proceso para dos instantes de tiempo, tendrán propiedades estadísticas relacionadas con su función de densidad conjunta. Un proceso aleatorio se dice que es estacionario si todas sus propiedades estadísticas no cambian con el tiempo. La caracterización estadística del proceso es independiente del tiempo en el que se inicia la observación del proceso. Es decir, si un proceso de este tipo se divide en varios intervalos de tiempo, las distintas secciones del proceso exhiben en esencia las mismas propiedades estadísticas, un proceso de estas características se dice que es estacionario. Existen varios tipos de estacionalidad, estos pueden ser clasificados de acuerdo al orden que tienen, pueden ser de primer, segundo y de orden N. Un proceso aleatorio es estacionario de primer orden si su función de densidad de primer orden no cambia al desplazar el origen de tiempos. Para ejemplificar mejor: 2.3 Tiene que cumplirse para cualquier estacionario de primer orden. y cualquier número real si X (t) es un proceso Las consecuencias de la expresión anterior son que y que el valor medio del proceso es una constante: es independiente de 42 Página

59 Un proceso es estacionario de orden dos si su función de densidad de segundo orden satisface la siguiente relación: Para todo En este caso la correlación = de un proceso aleatorio es una función de y. Sin embargo la función de autocorrelación de un proceso estacionario de segundo orden es solo una función de las diferencias entre los tiempos y no de un tiempo absoluto, es decir: = Entonces Dónde: = Un proceso arbitrario de segundo orden también es un proceso arbitrario de primer orden. Se puede tener dos procesos aleatorios estacionarios conjuntamente si cada uno de ellos satisface la ecuación = 43 Página

60 Al involucrar los dos procesos quedaría: La estacionalidad de orden N la podemos obtener generalizando el razonamiento anterior a N variables aleatorias, donde i=1,2...n. Un proceso es estacionario de orden N si su función de densidad de orden N no varía al desplazar el origen de tiempos, es decir: La estacionalidad de orden N implica la estacionalidad de todos los ordenes k N. 2.4 Estadísticas de procesos aleatorios Media Tenemos un proceso aleatorio estrictamente estacionario. Se define la medida de proceso como el valor esperado de la variable aleatoria obtenida al observar el proceso en algún tiempo t, como se indica mediante 2.4 Donde es la función de densidad de probabilidad de primer orden del proceso. A partir de la ecuación 44 Página

61 Deducimos que para un proceso aleatorio estrictamente estacionario, independiente del tiempo t. es En consecuencia, la medida en la que un proceso es estrictamente estacionario es una constante, como lo indica Para calcular el promedio temporal de una magnitud se define: a Donde A se utiliza para indicar el promedio temporal de forma análoga a la notación para el valor medio estadístico. El promedio temporal se calcula para todos los instantes de tiempo, ya que, en los procesos aleatorios se presupone que las funciones muestra de los procesos existen en todo instante de tiempo. Los promedios específicos de interés son el valor medio Ẍ =A [ muestra. ] de una función Autocorrelación Se define la función de autocorrelación de proceso como el valor esperado del producto de dos variables aleatorias, X(t 1 ) y X(t 2 ), obtenido al observar el proceso de en los tiempos t 1 y t 2, respectivamente. De manera específica, escribimos Página

62 Donde es la función de densidad de probabilidad de segundo orden de proceso. Según la ecuación Para toda t y ( ) ( ) Deducimos que para un proceso aleatorio estrictamente estacionario, solo depende de la diferencia entre los tiempos de observación t 1 y t 2, lo cual significa que la función de autocorrelación de un proceso estrictamente estacionario solo depende de la diferencia de tiempo t 2 - t 1, como se indica mediante De manera similar, la función de autocovarianza de un proceso estrictamente estacionario se escribe como Las propiedades de la autocorrelación se enuncian enseguida: Redefinimos la función de autocorrelación de un proceso estacionario como Esta función de autocorrelación tiene varias propiedades importantes: 1. El valor cuadrático medio del proceso se puede obtener a partir de R x (τ) poniendo simplemente τ=0 en la ecuación (2.4.4) como se indica por medio de Página

63 2. La función autocorrelación R x (τ) es una función par de τ, esto es: Esta propiedad se desprende directamente de la ecuación de definición (2.4.4). En consecuencia, es posible que definamos la función de autocorrelación R x (τ) como 3. La función de autocorrelación R x (τ) tiene su magnitud máxima en τ=0, es decir: Para probar esta propiedad, considere esta cantidad no negativa [( ) ] Al desarrollar los términos y tomar sus valores esperados individuales, encontramos fácilmente que Que, a la luz de las ecuaciones (2.4.8) y (2.4.9) se reduce a 47 Página

64 De manera equivalente, es posible escribir A partir de los cual se deduce directamente la ecuación (2.4.9) El significado físico de la función de autocorrelación es que esta proporciona una forma o medida para describir la interdependencia de dos variables aleatorias obtenidas al observar un proceso aleatorio en tiempo separado segundos. Por tanto, resulta claro que cuanto más rápido cambie con el tiempo el proceso aleatorio, tanto más rápido la función de correlación disminuye a partir de su máximo cuando crece, como se ilustra en la figura Figura Ilustración de las funciones de autocorrelación de procesos aleatorios Correlación Se considera el caso más general de dos procesos aleatorios, Y con funciones de autocorrelación y respectivamente. Las dos funciones de correlación cruzada de Y se define por medio de: Página

65 Donde t y u denotan dos valores de tiempo en los cuales se observa los procesos. En este caso, las propiedades de correlación de los dos procesos aleatorios y Y quizá se exhiban de manera conveniente en forma de matriz del siguiente modo: [ ] La cual recibe el nombre de matriz de correlación del procesos aleatorio Y. Si cada uno de los procesos aleatorios Y es estacionario y, además, son conjuntamente estacionarios, entonces es posible escribir la matriz de correlación como: [ ] Donde 2.5 Procesos Ergódicos Se dice que un proceso es ergódico si tomando una sola función muestra de todas las funciones muestras obtenidas del sistema, podemos obtener sus parámetros probabilísticos (media, varianza, etc.), un proceso para ser ergódico forzosamente requiere ser estacionario, sin embargo un proceso estacionario no forzosamente es ergódico. Se dice que un proceso es ergódico respecto a la correlación si, y solo si, para todo : Página

66 Las esperanzas o promedio totales de un proceso aleatorio entre los extremos del proceso. son promedios Por ejemplo, la media de un proceso aleatorio en algún tiempo fijo t k es la esperanza de la variable aleatoria X (t k ) que describe todos los valores posibles de las funciones muestra del proceso observado en el tiempo t=t k. De modo natural, es posible definir también promedios de muestra a largo plazo o promedios de tiempo que son promedios a lo largo del proceso. Por lo tanto, estamos interesados en relacionar promedios totales con promedios de tiempo para que estos últimos representen un medio práctico que esté disponible para la estimación de los promedios totales de un proceso aleatorio. Pero cuando es posible sustituir los promedios de tiempo por los promedios totales, para esto se considera la función muestra x(t) de un proceso estacionario, con el intervalo de observación definido como El valor de C. D. de se define mediante el promedio de tiempo El promedio de tiempo es una variable aleatoria, ya que su valor depende del intervalo de observación y de la función muestra particular del proceso aleatorio X(t). Puesto que se supone que el proceso X(t) es estacionario, la media del promedio de tiempo está dada por: Donde es la media del proceso X(t). El promedio de tiempo representa por una estimación de la media promediada en el conjunto. 50 Página

67 Se afirma que el proceso X(t) es ergódico en la media si se satisfacen dos condiciones: 1.- El promedio de tiempo se acerca al promedio total en el límite cuando el intervalo de observación T tiende a infinito; esto es: La varianza de, tratada como una variable aleatoria, tiende a 0 en el límite cuando el intervalo de observación T se acerca a infinito; estos es: El otro promedio en el tiempo de interés particular es la función de autocorrelación definido en términos de la función muestra x (t) observada sobre el intervalo. De la ecuación (2.5.2) es posible que definamos formalmente la función de autocorrelación promediada en el tiempo de una función muestra x (t) del modo siguiente: Este segundo promedio en el tiempo también debe verse como una variable aleatoria con una media y una varianza propia; De manera similar a la ergodicidad de la media, afirmamos que el proceso es ergódico en la función de autocorrelación si se satisfacen las dos condiciones límite siguiente: Para que un proceso aleatorio sea ergódico, tiene que ser estacionario; sin embargo, lo inverso no es necesariamente cierto. 51 Página

68 2.6 Trasmisión de un proceso aleatorio a través de un filtro lineal invariante con el tiempo Supongamos que un proceso aleatorio se aplica como entrada a un filtro lineal invariante con el tiempo de respuesta al impulso, produciendo un nuevo proceso aleatorio en la salida del filtro, como en la figura En general, resulta difícil describir la distribución de probabilidad del proceso aleatorio de salida, aun cuando la distribución de probabilidad del proceso aleatorio de entrada este especificada por completo en. Figura Transmisión de un proceso aleatorio a través de un filtro lineal invariante con el tiempo La trasmisión de un proceso a través de un filtro lineal invariante con el tiempo está gobernada por la integral de convolución; expresaremos el proceso aleatorio de salida en términos del proceso aleatorio de entrada como: Donde τ 1 es la variable de integración. Entonces tenemos que la media de es: [ ] Página

69 Siempre que la esperanza sea finita para todo y el sistema estable, existe la posibilidad de que intercambiemos el orden de la esperanza y la integración de la ecuación (2.6.3) y escribir de esta manera: Cuando el proceso aleatorio de entrada es estacionario, la media es una constante, por lo que podemos simplificar la ecuación (2.6.4) de este modo Donde es la respuesta en frecuencia en 0 (cd) del sistema. La ecuación (2.6.5) establece que la media de un proceso aleatorio producida a la salida de un sistema lineal invariante con el tiempo en respuesta a que actúa como el proceso de entrada es igual a la media de multiplicada por la respuesta de cd del sistema, lo cual se satisface de manera intuitiva. Consideremos la función de autocorrelación del proceso aleatorio de salida definición, tenemos:. Por Página

70 Donde y denotan dos valores del tiempo en el cual se observa el proceso de salida. Por tanto resulta viable utilizar la integral de convolución para escribir: [ ] En este caso también, siempre que el valor cuadrático medio sea finito para todo t y el sistema sea estable, podemos intercambiar el orden de la esperanza y la integración con respecto a y en la ecuación (2.6.6), obteniendo: Cuando la entrada es un proceso estacionario, la función de autocorrelación de es únicamente una función de la diferencia entre los tiempos de observación. Al poner en la ecuación (2.6.8), podemos escribir: Al combinar este resultado con el que involucra a la media, observamos que si la entrada para un filtro y estable invariante con el tiempo es un proceso estacionario, entonces la salida del filtro también es un proceso estacionario. Puesto que, se concluye que el valor cuadrático medio del proceso aleatorio de salida se obtiene al sustituir en la ecuación (2.6.9). De tal modo obtenemos el resultado Página

71 2.7 Densidad Espectral de Potencia Para un proceso aleatorio x(t), definimos muestra x(t) que existe entre T y T, es decir: como la porción de una función { La energía contenida en x(t) en el intervalo ( -T, T ) es: Puesto que relacionada con tiene transformada de Fourier, su energía también tiene que estar por lo tanto: Si dividimos la última ecuación entre 2T obtendremos la potencia media P (T) en x(t) en el intervalo (-T,T ): Para lograr encontrar la potencia media deseada requerimos calcular la expresión anterior cuando T como se muestra en la siguiente expresión: Página

72 Si definimos el espectro de densidad de potencia para el proceso aleatorio mediante: Pxx La integral aplicable que llamamos fórmula de la potencia quedaría: Pxx Proceso aleatorio Gaussiano Consideremos un proceso aleatorio continuo, donde se definen N variables aleatorias X1= correspondientes a N instantes de tiempo. Si para cualquier N y cualquier instante t estas son variables aleatorias son conjuntamente gaussianas, es decir, tiene una función de densidad dada por la expresión de abajo se dice que el proceso es gaussiano. ( ) { } Donde [ ] y [ ] son las sig. Matrices [ [ ] [ ] Los valores medios de de ) son: Página

73 Los elementos de la matriz de covarianza [ ] son: = Que es la autocovarianza de A partir de la ecuación y cuando se usan en la se observa que la media y la autocovarianza son lo que se necesita para satisfacer un proceso aleatorio gaussiano En esta última expresión se observa que solo pueden emplearse la media y la función de autocorrelación. Además cuando el proceso es estacionario la media será constante: Mientras que la autocovarianza y la autocorrelación dependerán solo de las diferencias temporales y no del tiempo absoluto: 57 Página

74 CAPÍTULO 3 Tipos de ruido y técnicas para generar números aleatorios 58 Página

75 3.1 Ruido en los sistemas de comunicaciones El termino ruido suele usarse para designar señales no deseadas que tienen a perturbar la transmisión y el procedimiento de señales en sistemas de comunicaciones y sobre las cuales no tenemos un control completo. En la práctica, encontramos que existen muchas fuentes potenciales de ruido en un sistema de comunicaciones. Estas pueden ser externas al sistema (por ejemplo, ruido atmosférico, ruido galáctico, ruido hecho por el hombre) o internas al sistema. La segunda categoría incluye un tipo importante de ruido que surge de fluctuaciones espontáneas de la corriente o voltaje en circuitos eléctricos. Este tipo de ruido representa una limitación básica en la trasmisión o detección de señales en sistemas de comunicaciones que incluyen el uso de dispositivos electrónicos. Los ejemplos más comunes de fluctuaciones espontáneas en circuitos eléctricos son el ruido de disparo y el ruido térmico Ruido de Disparo El ruido de disparo surge en dispositivos electrónicos como los diodos y los transistores debido a la naturaleza discreta del flujo de corriente en estos dispositivos. Por ejemplo, en un circuito fotodetector se genera un pulso de corriente cada vez que el cátodo emite un electrón debido al uso incidente de una fuente de intensidad constante. Los electrones se emiten naturalmente en tiempos aleatorios denotados por, donde. Se supone que las emisiones aleatorias de los electrones se han realizado durante largo tiempo. De ese modo, la corriente total que fluye por el fotodetector puede modelarse como una suma infinita de pulsos de corriente. 3.1 Donde es el pulso de corriente generado en el tiempo. El proceso definido por la ecuación 3.1 es uno estacionario denominado ruido de disparo. El número de electrones, emitido en el intervalo de tiempo constituye un proceso estocástico discreto, el valor del cual aumenta en uno cada vez que se emite un electrón. La figura denota una función muestra de este tipo. El valor medio del número de electrones, v, emitido entre los tiempos t y se define por medio de: Página

76 Figura Función muestra de un proceso de conteo de Poisson El parámetro es una constante denominada la velocidad del proceso. El número total de electrones emitido en el intervalo [t, t+t 0 ], esto es: 3.3 Siguiendo una distribución de Poisson con un valor medio igual a. En particular, la probabilidad de que k electrones emitan en el intervalo [t, t+t 0 ] está definida por: 3.4 Por una detallada caracterización estadística del proceso de ruido de disparo definido en la ecuación 3.1 resulta una difícil tarea matemática. Simplemente se señalaremos los resultados relativos a los primeros dos momentos del proceso: - La media de es: 3.5 Donde es la velocidad del proceso y es la velocidad de onda de un pulso de corriente. La función de autocovarianza de X(t) es: 3.6 Este segundo resultado se conoce como teorema de Campbell. 60 Página

77 En el caso especial de una forma de onda consistente en un pulso rectangular de amplitud A y duración T, la media de proceso de ruido de disparo X (t) es, y su función de autocovarianza es: { 3.7 Que tiene una forma triangular similar a la que se presenta en la figura Figura Función de autocorrelación de una onda binaria aleatoria Sabiendo que la función de autocorrelación es una comparación de los valores tomados en dos instantes de tiempo y este intervalo no es absoluto, observamos la figura la autocorrelación que existe en un mismo valor es la de mayor valor Ruido Térmico El ruido térmico es el nombre dado al ruido eléctrico que surge del movimiento aleatorio de los electrones en un conductor. Se caracteriza por la distribución uniforme de energía sobre todo el espectro de frecuencias con distribución Gaussiana. El valor cuadrático medio del voltaje del ruido térmico VTN que aparece en las terminales de un resistor, medido en un ancho de banda en Hertz, está, para todos los fines prácticos, dado por: Página

78 Donde k es la constante de Boltzman igual a joules por grado Kelvin, T es la temperatura absoluta de grados Kelvin y R es la resistencia en ohms. De este modo, es posible que modelemos un resistor ruidoso por medio del circuito equivalente de Thevenin compuesto por un generador de voltaje de ruido de valor cuadrático medio en serie con un resistor sin ruido, como se ilustra en la figura De manera alternativa, podemos recurrir al circuito equivalente de Norton como en la figura compuesto por un generador de corriente de ruido en paralelo con una conductancia sin ruido. El valor medio cuadrático del generador de corriente de ruido es Figura Circuito equivalente de Thevenin 3.9 Donde es la conductancia. También resulta de interés notar que debido a que el número de electrones en un resistor es muy grande y a que sus movimientos aleatorios dentro del resistor son estadísticamente independientes entre sí, el teorema del límite central indica que el ruido térmico se distribuye en forma gaussiana con media igual a cero. Los cálculos de ruido incluyen la trasferencia de potencia, por lo que encontramos que el uso del teorema trasferencia de potencia resulta aplicable a dicho cálculos. Este teorema establece que la máxima potencia posible se transfiere de una fuente de resistencia interna R a una carga de resistencia R1 cuando R1=R. Bajo esta condición de acoplamiento la potencia que produce la fuente se decide igualmente entre la resistencia interna de fuente y la resistencia de la carga, y la potencia entregada a la carga se denomina potencia disponible. 62 Página

79 Al aplicar el teorema de máxima trasferencia de potencia al circuito equivalente de Thevenin de la figura o al circuito equivalente de Norton de la figura 3.1.4, encontramos que el resistor ruidoso produce una potencia de ruido disponible igual a. Figura Circuito equivalente de Norton La ley de equipartición de Boltzmann y Maxwell combinado con el trabajo de Johnson, y Nyquist establece que la potencia del ruido térmico generado dentro de una fuente para un ancho de banda de 1 Hz es la densidad de potencia de ruido, la cual se representa matemáticamente como Por lo tanto tenemos: 3.10 Para expresar en dbm es la siguiente expresión: Lo cual lo anterior es: 63 Página

80 La potencia total de ruido es igual al producto del ancho de banda y la densidad de potencia de ruido. La potencia de ruido presente en el ancho de la banda B es: Que se obtiene de: En el intervalo [-B, B] la función tiene valor de entonces Página

81 3.1.3 Ruido Blanco El análisis de ruido de los sistemas de comunicación suele basarse en una forma idealizada de ruido denominada ruido blanco, cuya densidad espectral de potencia es independiente de la frecuencia de operación. El adjetivo blanco se usa porque la luz blanca contiene cantidades iguales de todas las frecuencias dentro de la banda visible de radiación electromagnética. Expresamos la densidad espectral de potencia de ruido blanco, con una función de potencia denotada por ω (t), como 3.12 Figura Gráfica de Densidad Espectral de Potencia para el ruido blanco Que se ilustra en la figura Las dimensiones de N o son watts por Hertz. El parámetro N o casi siempre se corresponde con la etapa de entrada del receptor de un sistema de comunicación. Es posible expresarlo como Donde k es la constante de Boltzmann y T e la temperatura de ruido equivalente del receptor. La temperatura de ruido equivalente de un sistema se define como la temperatura a la cual un resistor ruidoso tiene que mantener de tal modo que, al conectar el resistor a la entrada de una versión sin ruido del sistema, produce la misma potencia de ruido disponible en la salida del sistema que la generada por las fuentes de ruido en el sistema real. La característica importante de la temperatura del ruido equivalente es que depende solo de los parámetros del sistema Página

82 Teorema de Wienner Kintchine Donde TF significa Transformada de Fourier y R xx es la función de autocorrelación de x (t). El valor P xx (0) es la potencia de la componente continua (DC) de la señal. La integral de esta función en todo el eje f es el valor de la potencia total de la señal x (t) 3.16 Puesto que la función de autocorrelación es la trasformada inversa de Fourier de la densidad espectral de potencia, entonces tenemos para el ruido blanco: 3.17 Figura Gráfica de la función de autocorrelación para el ruido blanco Esto es, la función de autocorrelación del ruido blanco consiste en una función delta escalada por el factor y que ocurre en, como en la figura Si el ruido blanco w (t) también es gaussiano, entonces las dos muestras resultan estadísticamente independientes. En cierto sentido, el ruido blanco representa lo último en aleatoriedad. El ruido blanco tiene una potencia promedio infinita y, como tal, no puede ser físicamente realizable. 66 Página

83 A pesar de eso, el ruido blanco tiene propiedades matemáticas simples ejemplificadas por las ecuaciones 3.16 y 3.17, mismas que lo hace útil en el análisis de sistemas estadísticos. 3.2 Generación de Números Aleatorios Los números aleatorios son un ingrediente básico necesario en la simulación de gran parte de todos los sistemas discretos. Muchos lenguajes de computación tienen una subrutina, objeto o función que generará números aleatorios. Similarmente, los lenguajes de simulación generan números aleatorios que son usados para generar eventos por tiempos y otras variables aleatorias Propiedades de los Números Aleatorios Una secuencia de números aleatorios R 1, R 2,, deben tener dos propiedades estadísticas importantes, uniformidad e independencia. Cada número aleatorio R i es una muestra independiente desde una distribución uniforme continua entre 0 y 1. Esto es, la función de densidad de probabilidad está dada por: { 3.18 El valor esperado de cada R i está dado por: 3.19 Y la varianza por ( ) Página

84 Algunas consecuencias de las propiedades de uniformidad y la independencia son las siguientes: 1. Si el intervalo (0, 1) es dividido en n clases, o subintervalos de la misma longitud, el número esperado de observaciones en cada intervalo es N/n, donde N es el número total de observaciones. 2. La probabilidad de observar un valor en un intervalo particular es independiente de los valores previos Generación de Números Pseudo-Aleatorios En este caso pseudo se utiliza para indicar que la generación de números aleatorios por un método conocido remueve el potencial de la verdadera aleatoriedad. La meta de cualquier esquema de generación es producir una secuencia de números entre 0 y 1 cuando simulamos, o imitamos, las propiedades ideales de distribución uniforme e independencia lo más cercano posible. Cuando generamos números pseudo-aleatorios, pueden ocurrir problemas: errores. Estos errores son todos relacionados a las propiedades antes mencionadas. Algunos ejemplos son los siguientes: 1. Los números generados pueden no tener distribución uniforme. 2. Los números generados pueden ser de valores discretos en lugar de valores continuos. 3. La media de los números generados puede ser muy alta o muy baja. 4. La varianza de los números generados puede ser muy alta o muy baja. 5. Puede haber dependencia. Como los siguientes ejemplos: a) Autocorrelación entre números. b) Números sucesivamente altos o bajos que los números adyacentes 68 Página

85 Usualmente, los números aleatorios son generados por una computadora digital como parte de la simulación. Se pueden utilizar numerosos métodos para ser usados como generador de valores. En la selección de los métodos, o rutinas, hay un número importante de consideraciones: 1. La rutina debe ser rápida. La simulación requiere de muchos cientos de miles de números aleatorios. 2. La rutina debe ser transferible a diferentes computadoras, e idealmente a diferentes lenguajes de programación. 3. La rutina debe tener un ciclo lo suficientemente largo. La longitud del ciclo, o periodo, representa la longitud de la secuencia de números aleatorios antes de que se repita el primer número. 4. Los números aleatorios pueden ser reproducibles. Dando el punto de partida (o condiciones), se puede generar el mismo conjunto de números aleatorios, completamente independiente del sistema que esté haciendo la simulación. 5. Lo más importante, y que se indicó anteriormente, la generación de números aleatorios tiene que aproximarse lo más cercano a las propiedades estadísticas ideales de uniformidad e independencia. Inventar técnicas que generen números aleatorios es relativamente fácil; inventar técnicas que realmente produzcan secuencias que sean independientes y de distribución uniforme de números aleatorios es increíblemente difícil. 69 Página

86 3.2.3 Técnicas de generación de Números Aleatorios El método congruencial lineal es la técnica más utilizada para la generación de números aleatorios. El método congruencial lineal, inicialmente propuesto por Lehmer, produce una secuencia de enteros, X 1, X 2, ente 0 y m-1 acorde a la siguiente relación recursiva: 3.21 Donde mod m indica la operación de módulo m, es decir, realizar la división del valor obtenido dentro del paréntesis entre m y el residuo de esta división será el resultado que se busca. El valor inicial X 0 es llamada la semilla, a es llamada la constante de multiplicación, c es el incremento, y m es el modulo. Si en la ecuación (3.3), la forma es llamada el método congruencial mezclado. Cuando c = 0, la forma es conocida como el método congruencial multiplicativo. La selección de los valores de a, c, m y X 0 afectan drásticamente las propiedades estadísticas y la longitud del ciclo. Ejemplo Usando el método congruencial lineal para generar una secuencia de números aleatorios con X 0 = 27, a = 17, c = 43, y m = 100. Podemos observar que los valores enteros generados estarán entre 0 y 99 por el valor del módulo m. Números aleatorios entre 0 y 1 pueden generarse por medio de: Página

87 La secuencia de los valores de X i y R i son calculados de la siguiente manera: Observando el ejercicio, el primer valor calculado X 1 se realiza con la operación X 1 = 502 mod 100, pero 502/100 es igual a 5 con el residuo de 2, entonces X 1 = 2. La última prueba del método congruencial lineal, como de cualquier esquema de generación, es que tan estrechamente los números generados R 1, R 2, se aproximan a la uniformidad e independencia. Hay muchas propiedades secundarias que también deben ser tomadas en cuenta. Entre las cuales tenemos densidad y periodo máximo. Primero, note que los números generados desde la ecuación 3.14 solo pueden adoptar valores del conjunto C = {0, 1/m, 2/m,, (m - 1)/m}, desde cada X i que es un entero en el conjunto {0, 1, 2,, m 1}. Así, cada R i es discreta en C, en cambio continua en el intervalo [0, 1]. Esta aproximación está dada por el valor del módulo m. Para una densidad máxima es indispensable que los valores adoptados por R i, i = 1, 2,, no deje largos huecos en [0, 1]. Segundo, para ayudar a alcanzar la máxima densidad, y evitar la generación cíclica en aplicaciones prácticas, el generador debe tener el periodo más largo posible. El máximo periodo puede ser alcanzado por la elección apropiada de a, c, m, y X 0. Para m una potencia de 2, decimos m = 2 b, y c 0, el periodo más largo posible es P = m = 2 b, que se alcanza con la condición de que c es relativamente principal a m, y a = 1 + 4k, donde k es un entero. 71 Página

88 Para m una potencia de 2, decimos m = 2 b, y c = 0, el periodo más largo posible es P = m/4 = 2 b-2, que se alcanza con la condición de que la semilla X 0 es impar y el multiplicador, a, está dado por a =3 + 8k, para algunos k = 0, 1, Para m un número primo y c = 0, el periodo más largo posible es P = m + 1, que se alcanza con la condición de que el multiplicador, a, tenga la propiedad que el entero k más chico tal que a k 1 es divisible por m es k = m 1. Generadores Congruenciales Lineales Combinados Como el poder de la computación ha incrementado, la complejidad de los sistemas que simulan ha también incrementado. Un generador de números aleatorios con periodo de x 10 9, no es lo suficientemente largo para todas las aplicaciones. Ejemplos incluyen los sistemas de alta confiabilidad, en los cuales cientos de miles de eventos deben simularse; y la simulación de redes computacionales complejas, en donde miles de usuarios están ejecutando miles de programas. Una manera de lograr mejores generadores es combinar dos o más, con lo que obtenemos buenas propiedades estadísticas y un largo periodo. Si W i,1, W i,2,, W i,k son cualquier valor discreto y de variables aleatorias independientes, pero uno de estos, por decir W i,1, se distribuye uniformemente en los enteros 0 a m 1 2, entonces ( ) 3.23 Tiene distribución uniforme en los enteros 0 a m 1 2. Para ver como este resultado puede ser utilizado para formar generadores combinados, tomamos X i, 1 X i, 2,, X i, k sean la i-ésima salida desde k diferentes generadores congruenciales multiplicativos, donde el j-ésimo generador tiene un módulo primo m j, y el multiplicador a j es elegido de modo que el periodo es m j 1. Entonces el j-ésimo generador está produciendo enteros X i, j que se aproximen a la distribución uniforme en 0 a m j 1, y W i, j = X i, j - 1 es aproximado a la distribución uniforme en 0 a m j 2. La combinación de los generadores es de la forma 72 Página

89 ( ) 3.24 Con { 3.25 Note que el coeficiente X i, 1 1: por ejemplo, implícitamente funciona como la substracción Si k = 2, entonces ( ) ( ). El máximo periodo posible para tal generador es Generación de variables aleatorias. En la práctica, la mayoría de los modelos de simulación usan rutinas disponibles existentes en cualquier librería de programación, o rutinas pre construidas dentro del lenguaje de simulación. Como sea, algunos lenguajes de programación no tienen rutinas pre construidas para todas las distribuciones que regularmente se usan, y algunas computadoras no tienen instaladas las librerías para la generación de variables aleatorias, en estos casos el modelador debe construir una rutina aceptable. Todas las técnicas siguientes para la generación de variables aleatorias asume que una fuente de números aleatorios uniformes (0,1), fácilmente disponibles, donde cada tiene función de densidad de probabilidad de la siguiente forma: { Página

90 Y función de distribución acumulativa { 3.27 Así que sobre (0,1). representan números aleatorios uniformemente distribuidos La técnica de la transformada inversa puede ser usada para generar desde una distribución exponencial, uniforme, Weibull, y triangular. Adicionalmente, una gran variedad de distribuciones discretas. Esta técnica es la más directa, pero no siempre la más eficiente. Para el desarrollo de la técnica de la transformada inversa se va a ejemplificar con la distribución exponencial, que tiene función de densidad de probabilidad dada por: { 3.28 Y función de distribución acumulativa { 3.29 El parámetro puede ser interpretado como la media en que se presentan por unidad de tiempo. Por ejemplo, si los tiempos de llegada tienen una distribución exponencial con tasa, entonces puede ser interpretada como la media de las llegadas por unidad de tiempo, o la tasa de llegadas. Note que para cada : Página

91 De modo que es la media. La meta aquí es desarrollar un procedimiento para generar los valores que tienen distribución exponencial. La técnica de la transformada inversa puede ser utilizada, al menos en principio, para cualquier distribución, pero es más utilizada cuando la función de distribución acumulativa,, es de la forma que la inversa,, puede ser fácilmente calculada. Enseguida se muestra el procedimiento paso a paso a seguir para realizar el proceso de la técnica de la transformada inversa, tomando como ejemplo la distribución exponencial: Paso 1. Calcular la función de distribución acumulativa de la variable aleatoria deseada. Para la distribución exponencial, la fda es. Paso 2. Asignar sobre el rango de. Para la distribución exponencial, se vuelve sobre el rango. Partiendo de que es una variable aleatoria (con distribución exponencial en este caso), es también una variable aleatoria, aquí llamada. tiene una distribución uniforme sobre el intervalo (0,1). Paso 3. Resolver la ecuación para en términos de. Para la distribución exponencial, la solución es la siguiente: 3.31 La ecuación 3.31 es llamada un generador de variable aleatoria para la distribución exponencial. En general, la ecuación 3.31 es escrita como. 75 Página

92 Paso 4. Generar números aleatorios uniformes aleatorias por: y calcular las variables 3.32 Para el caso exponencial, modo por la ecuación 3.31 queda del 3.33 Para Una simplificación que es usualmente empleada en la ecuación 3.33 es remplazar por quedando de la siguiente forma: 3.34 Lo cual queda justificado dado que (0,1). son uniformemente distribuidas sobre Transformación directa para la distribución normal y lognormal Muchos métodos han sido desarrollados para generar variables aleatorias con distribución normal. La técnica de transformada inversa no puede ser aplicada fácilmente, porque la fda inversa no puede ser escrita de forma cerrada. La fda normal estándar está dada por: Página

93 En esta sección se describe una transformación directa que produce un par independiente de variables normales estándar con media cero y varianza 1. Después se observara como transformar una variable normal estándar en una variable normal con media y varianza. Una vez que se tenga el método (este o cualquier otro) para generar desde una distribución, se puede generar una variable aleatoria lognormal con parámetros y usando directamente la transformación: Considere dos variables aleatorias normales estándar, y, representadas por las coordenadas polares: Es conocido que tiene la distribución chi-square con dos grados de libertad, que es equivalente a una distribución exponencial con media 2. El radio puede ser generado la ecuación 3.35: 3.39 Por la simetría de la distribución normal, es razonable suponer que el ángulo tiene distribución uniforme entre 0 y radianes. Y el radio, y el ángulo, son mutuamente independientes. Combinando las ecuaciones 3.35 y 3.36 obtenemos un método directo para la generación de dos variables aleatorias normales estándar, y, a partir de dos números aleatorios independientes y : Página

94 Para ilustrar el esquema de generación, considere la ecuación 3.40 con y. Dos variables aleatorias normales estándar son generadas como sigue: Para obtener variables normales con media y varianza, se aplica la transformación 3.42 A las variables normales estándar. Por ejemplo, para transformar las dos variables normales estándar en variables con media y varianza se calcula Histogramas Una distribución en frecuencia o histograma es muy útil para identificar la forma de una distribución. El histograma es construido de la siguiente manera: 1. Dividir el rango de los datos en intervalos (los intervalos son generalmente de igual tamaño). 2. Etiquetar el eje horizontal conforme a los intervalos seleccionados. 78 Página

95 3. Determinar la frecuencia de sucesos dentro de cada intervalo. 4. Etiquetar el eje vertical de modo que el total de sucesos pueden ser graficados para cada intervalo. 5. Graficar las frecuencias sobre el eje vertical. El número de intervalos depende del número de observaciones y la dispersión en los datos. Si los intervalos son muy grandes, el histograma va a ser muy grueso y la forma y otros detalles no serán apreciados bien. Si el intervalo es muy pequeño, el histograma estará disparejo y no se mostraran correctamente los datos. El histograma para datos continuos corresponde a la función de densidad de probabilidad de una distribución teórica. El histograma para datos discretos, se parecerá a la función de masa de probabilidad. Figura Histograma En la figura se observa un ejemplo de Histograma en que los datos toman valores de 0 a 8 y los intervalos tienen un ancho de una unidad, el primer intervalo se ha repetido o tiene una frecuencia de dos, el intervalo más repetido o con mayor frecuencia es el intervalo (3, 4) con un valor de Página

96 CAPÍTULO 4 Desarrollo Experimental 80 Página

97 4.1. Generador de señales El generador Rigol DG2000 adopta la tecnología DDS, que provee estabilidad, alta precisión y baja distorsión de la señal. Puede proveer 40MHz de forma de onda cuadrada con rápido rizo y caída. El generador de ondas arbitrarias tiene un sencillo panel frontal, el panel y las instrucciones son amigables con el usuario, tiene interfaz para graficar directamente la señal que se produce, instrucciones precargadas y un sistema de ayuda para simplificar los procesos. Algunas de las instrucciones precargadas son las modulaciones AM, FM, PM, PWM y FSK. El USB de E/S es un accesorio estándar, mientras que LAN y GPIB son opcionales. Las características se enlistan debajo canales digitales de salida. Tecnología DDS provee precisión, estabilidad y baja distorsión de la señal de salida. 10 formas de onda estándar: Seno, cuadrada, rampa, pulso, ruido, rizo exponencial, caída exponencial, cardiaca, sinc y CD. Características de frecuencia: Seno/Cuadrada: 1µHz a 40 MHz Rampa: 1 µhz a 400 khz Pulso: 500 µhz a 16 MHz Ruido Blanco: 20 MHz de ancho de banda (-3dB) Forma de onda Arbitraria: 1 µhz a 8 MHz Rango de amplitud de 1mVpp a 10 Vpp. Funciones de modulación: AM, FM, PM, PWM y FSK. Modo lineal, logarítmico y de barrido. 81 Página

98 Opciones de E/S: fuente de modulación externa, 10 MHz de referencia de entrada externa, fuente externa de trigger, salida de ondas de forma, señal de salida de sincronización digital, salida de referencia de 10MHz. Soporta dispositivos de almacenamiento USB. Control Remoto si es usado en una LAN. Interfaces estándar: USB, RS-232, GPIB. Interfaz gráfica que muestra la señal producida. Interfaz de usuario multilenguaje. Sistema de ayuda en inglés. Observando la figura podemos ver el panel frontal del generador, los 6 botones debajo de la pantalla son botones de menú, con la ayuda de ellos se puede elegir diferentes opciones en el menú actual. El resto son las llaves funcionales, con las que se puede entrar a diferentes menús de funciones u obtener aplicaciones funcionales específicas directamente. Figura Panel Frontal del generador de formas de onda arbitrarias 82 Página

99 El generador DG2041A provee dos modos de desplegar en la pantalla: Menú y Gráfica. Bajo el modo Menú, la interface en la pantalla es dividida en 4 partes: estado, icono de forma de onda, menú de operación y parámetros de despliegue. Se puede observar la figura 4.1.2, donde aparecen las 4 partes en que está dividida la pantalla. Bajo el modo Gráfica, se puede checar la forma de onda actual, la pantalla también es dividida en 4 partes: estado, parámetros de despliegue, botón de menú de despliegue y el despliegue de la forma de onda. Obsérvese la figura Figura La pantalla desplegada bajo el modo Menú. Figura La pantalla desplegada bajo el modo Gráfica. Como se observa en figura 4.1.4, hay dos grupos de botones en el panel de operación, que son el botón de dirección, la perilla y el teclado. 83 Página

100 Figura Entrada digital en el panel frontal 1. Use los botones de dirección para mover el cursor a la izquierda o derecha. Gire la perilla para cambiar un digito (en el sentido del reloj para aumentar). 2. Use el teclado para establecer los valores de los parámetros. En el panel de operaciones se pueden ver tres botones como se muestra en la figura 4.1.5, que son usados para llamar el almacenamiento/recargar, utilidades y función de ayuda. Figura Almacenamiento/recargar, Utilidades y Botón de ayuda. El botón almacenamiento/recargar (store/recall) se usa para guardar los datos de una forma de onda y la información de configuración. 84 Página

101 El botón de utilidades (utility) se usa para ajustar las funciones auxiliares del sistema, cambiar los parámetros de salida, configurar la interfaz y la información del funcionamiento del instrumento. El botón de ayuda (help) se usa para leer la información de ayuda Formas de onda En la parte izquierda del panel de operaciones, hay un conjunto de botones con iconos de las formas de onda. Ver la figura Figura Botones de selección de formas de onda 1. Presionando el botón Seno (Sine), el botón se iluminará, y en la pantalla se desplegaran los parámetros que se pueden configurar con respecto a esta forma de onda. El generador DG2041A puede generar señales sinodales con frecuencia desde 1 µhz a 40 MHz. Se puede establecer la frecuencia/periodo, amplitud/nivel alto, offset/ nivel bajo. Figura Señal senoidal en el modo Menú. Como se observa en la figura 4.1.7, los valores predeterminados para la señal son: 1kHz de frecuencia, 5.0 Vpp de amplitud y 0Vcd Offset. 85 Página

102 2. Presionando el botón Cuadrada (square), el icono en el área de estado cambia a cuadrada. El generador DG2041A puede generar señales cuadradas con una frecuencia desde 1 µhz hasta 40MHz y con ciclo útil variable. Ajustando la frecuencia/periodo, amplitud/nivel alto, offset/ nivel bajo, y el ciclo útil puede ser generadas señales cuadradas con diferentes parámetros. Figura Señal cuadrada en el modo Menú. En la figura se observa que los valores predeterminados de la señal son: 1kHz de frecuencia, 5.0 Vpp de amplitud, 0Vcd Offset y 50% de ciclo útil. 3. Oprimiendo el botón Rampa (ramp), el icono en el área de estado cambia a Rampa. El generador DG2041A puede generar señales rampa con una frecuencia desde 1 µhz hasta 400kHz y con simetría variable. Ajustando la frecuencia/periodo, amplitud/nivel alto, offset/ nivel bajo, y simetría puede ser generadas señales rampa con diferentes parámetros. Figura Señal rampa en el modo Menú. En la figura se observa que los valores predeterminados de la señal son: 1kHz de frecuencia, 5.0 Vpp de amplitud, 0Vcd Offset y 50% de simetría. 86 Página

103 4. Presionando el botón Pulso (pulse), el icono en el área de estado cambia a pulso. El generador DG2041A puede generar señales cuadradas con una frecuencia desde 500 µhz hasta 16MHz y con ciclo dé ancho de pulso variable. Ajustando la frecuencia/periodo, amplitud/nivel alto, offset/ nivel bajo, y el ancho de pulso pueden ser generadas señales pulso con diferentes parámetros. Figura Señal pulso en el modo Menú. Como se observa en la figura , los valores predeterminados de la señal son: 1kHz de frecuencia, 5.0 Vpp de amplitud, 0Vcd Offset y 20µs ancho de pulso. 5. Presionando el botón Ruido (noise), el icono en el área de estado cambia a Ruido. El generador DG2041A puede generar señales de ruido con un ancho de banda arriba de 10 MHz. Ajustando la amplitud/nivel alto, offset/ nivel bajo pueden ser generadas señales de ruido con diferentes parámetros. Figura Señal de ruido en el modo Menú. En la figura se puede observar que los parámetros predeterminados para la señal son: 5.0 Vpp de amplitud y 0 Vcd de Offset. 87 Página

104 6. Presionando el botón Arbitraria (Arb), el icono en el área de estado cambia a Arbitraria. El generador DG2041A puede generar señales de forma de onda arbitraria repetible con 521K puntos y 8MHz de frecuencia. Ajustando la frecuencia/periodo, amplitud/nivel alto, offset/ nivel bajo pueden ser generadas señales arbitrarias con diferentes parámetros. Figura Señal arbitraria en el modo Menú. Como se observa en la figura Los parámetros predeterminados de la señal son: 1kHz de frecuencia, 5.0 Vpp de amplitud y 0Vcd de Offset Software El generador Rigol de la serie DG2000 cuenta con un software de edición de formas de onda con nombre: Ultrawave. Ultrawave provee 9 formas de onda. Adicionalmente, la opción de dibujar manualmente la onda y poder editar múltiples ondas simultáneamente. Ultrawave cuenta con las siguientes funciones: Operación entre ventanas: tiene habilitado el funcionamiento para realizar operaciones matemáticas, como +, -, x, para ondas en dos ventanas diferentes. Filtro: habilitado para funcionar como un filtro pasa bajos. Guardar la onda arbitraria que ha sido creada en formato.txt (archivo de texto),.csv (archivo CSV) y.rdf (archivo de forma de onda arbitraria). Leer los archivos de onda almacenados en formato.wfm desde el osciloscopio digital serie DS. 88 Página

105 Imprimir formas de onda. Descargar las ondas que han sido creadas al almacenamiento interno de la serie DG Interacción con el software y el generador Teniendo los conocimientos necesarios de las herramientas del generador y el software, se hará el análisis del ruido generado por el generador, por lo que se debe seleccionar la mejor manera para realizarlo. Para el análisis, el software es una herramienta que se utilizará para la generación y manipulación de las señales. Para conocer con más detalle su funcionamiento se realizaran algunas pruebas Generación de ondas arbitrarias Generemos una onda senoidal con las siguientes características: Número de muestras =1000; Frecuencias de muestreo =10KHz Voltaje pico pico= 2Volts Se selecciona la opción de generar una nueva señal arbitraria en el cual se ingresaran los datos antes mencionados (ver figura 4.2.1): 89 Página

106 Figura 4.2.1: Parámetros para la señal creada Se selecciona en el icono de la onda senoidal, nuevamente nos da la opción del número de muestras las cuales las dejaremos igual, los demás parámetro se dejan como están indicados, observar figura Figura 4.2.2: Selección de la onda senoidal 90 Página

107 Una vez hecho esto se selecciona el botón que dice en ok y nos da como resultado la señal con los parámetros que se introdujeron anteriormente, observar la siguiente figura 4.2.3: Figura 4.2.3: Onda generada Se ha generado la onda senoidal, ahora la inyectaremos al generador, ya que el software nos da esta opción, primero se conectara el software con el generador seleccionando el botón que dice connect to instrument, observar la figura 4.2.4: Figura 4.2.4: Conexión del software al generador (observar donde se selecciona) 91 Página

108 En la parte superior derecha nos indica cuando el software ya realizó la conexión con el generador, con ello tenemos un control del dispositivo externo por medio del software, ahora se asigna una localidad de memoria para que se inyecte la señal al generador, observar la siguiente figura Figura 4.2.5: Asignación de localidad de memoria, e inyección de señal al generador Cuando se hace la asignación de localidad de memoria se le debe de dar un nombre, en este caso se puso el nombre de PROYECTO, se selecciona el botón ok y la señal es enviada al generador, las figuras muestran la señal inyectada al generador y posteriormente la señal enviada al osciloscopio, observar figuras y Figura 4.2.6: El generador muestra el Voltaje pico pico mandado desde el software 92 Página

109 Figura 4.2.7: Señal Generada con el software en forma eléctrica Con lo anterior se puede decir que la señal originada en el software fue inyectada al generador y que de éste se despliega en el osciloscopio, lo que nos permite representar la señal generada en el software, en forma eléctrica. Una vez comprobado que la señal que se generó se puede inyectar al generador, se realizará el mismo procedimiento para una señal de ruido, los parámetros serán los mismos que en el caso anterior, observar la siguiente figura 4.2.8: Figura 4.2.8: Señal de ruido con 1000 muestras 93 Página

110 La señal generada se inyecta en la localidad 2 del software y es enviada al y generador, observar las siguientes figuras y : Figura 4.2.9: Asignación de localidad Figura : Señal de ruido generada en software desplegada en osciloscopio Este procedimiento se puede realizar con las demás opciones de señales que da el software. 94 Página

111 4.2.2 Localidades de memoria Tanto el software y el generador manejan 4 localidades de memoria, por esta razón se puede inyectar 4 señales distintas, cada una de ellas en una localidad respectivamente, observar la siguiente figura : Figura : Localidades de memoria Una vez llenas las localidades, hay que borrarlas y para esto existen dos formas, las cuales son: 1.- A través del software, siguiendo los pasos: Se selecciona el botón que dice enviar forma de onda (Send Analog Waveform) y nos despliega una ventana, seleccionamos en la barra desplegable con nombre formas de onda almacenada (Stored Waveform) el nombre de alguna de las señales que generamos (ver figura ), y seleccionamos el botón que dice en borrar (Delete) (ver figura ). 95 Página

112 Figura : Selección de la señal generada Figura : Borrado de la localidad de memoria 96 Página

113 2.- Esta opción es por medio del generador, siguiendo los siguientes pasos: Se selecciona el botón del generador que dice almacenar (Store), y se selecciona la localidad que se desea borrar (ver figura ), y se selecciona el botón que dice remover (Remove) (ver figura ). Figura : Selección de localidad Figura : Borrado de la localidad Estas dos formas, son las que nos permite la liberación de las localidades para seguir inyectando las señales generadas. 97 Página

114 4.2.3 Generación de archivos y cabeceras El software da la opción de guardar las señales generadas en archivos de tipo.txt,.csv y.rdf, como lo indica la figura : Figura : Representación del guardado de los archivos generados a través de las muestras de la señal Guardado el archivo, se abrirá alguno de ellos y se notará que el software lo ejecuta sin ningún problema, en este caso el nombre del archivo es prueba1, observar figuras y : 98 Página

115 Figura : Selección del archivo prueba1 Figura : Despliegue del archivo prueba1 Los archivos con extensión.txt y.csv tiene cabeceras que le sirven de referencia al software para ejecutarlos, si se modificarán alguna de estas cabeceras, el programa ya no carga la señal, por tal motivo estas cabeceras se dejaran fijas. 99 Página

116 Se tiene el siguiente formato de tipo txt representando las cabeceras del archivo prueba1, observar la figura : Figura : Archivo prueba1 en el cual se encuentras los valores de la señal senoidal A partir de la figura se explican las cabeceras del archivo txt : Rigol Technologies,Inc. Save analog waveform to text files: Es un comentario el cual indica cómo se guarda el archivo. 8: Esta cabecera nos indica el número de muestras de la señal generada 100 Página

117 8: Al igual que la cabecera 2 esta nos indica el número de muestras generadas 2: La cabecera 4 es en la cual indica el Voltaje pico pico con el cual se trabaja : Nos indica la cabecera 5 el tiempo en que se toma cada muestra con la que se hizo el muestreo. 14: Nos indica los niveles de cuantificación, en este ejemplo se utilizan 14 niveles. 7: Indica el número de muestras que se toman a partir de la muestra 1. 1: Se refiere al número de onda, siempre este valor va a ser 1. Después de las primeras 8 cabeceras tenemos los valores muestreados en este caso son 8, y parte desde el cero, el acomodo es intercalado, iniciando con el número de la muestra, después su valor y así sucesivamente. 0: Indicadores del software 0: Indicadores del software 0: Indicadores del software 7: Indica en número de muestras que se toman sin contar el cero 0: Indicadores del software 8: Esta cabecera nos indica el número de muestras de la señal generada 1: Indicadores del software 0: Indicadores del software 1: Número de ciclos 0: Indicadores del software 50: Indicadores del software 0: Indicadores del software 0: Indicadores del software 50: Indicadores del software 10: Indicadores del software 5: Indicadores del software 101 Página

118 4.2.4 Generación de señales a través de los archivos.txt y.csv Se genera una onda senoidal con los siguientes datos: Número de muestras por ciclo 8 Frecuencia de muestreo 10 KHz Voltaje pico pico 2 volts Como lo indica la figura Figura : Onda senoidal generada Se genera una onda senoidal ya que esto servirá para ejemplificar mejor, la onda generada se guardará en los archivos.txt y.csv. Una vez hecho esto se abre el archivo.csv, las cabeceras las dejaremos intactas, pero modifiquemos los valores que conforman la señal ver figura : 102 Página

119 Figura : Modificación de los valores que conforman la señal senoidal Una vez hecho se guardan las modificaciones y se carga el archivo en el software (ver figuras y ): 103 Página

120 Figura : Abriendo el archivo prueba1.csv Figura : Ejecución del programa 104 Página

121 Se nota que al hacer modificaciones en este archivo el software ya no lo reconoce por tal motivo es un archivo no modificable, ya que al guardar los cambios, se modifica algunas propiedades de la extensión.csv que es necesaria para la ejecución en el software. Ahora se hace lo mismo para el archivo.txt, se genera la misma señal con los mismos datos, se hacen las modificaciones iguales que el archivo anterior, y lo ejecutamos con el software (ver figura ): Figura : modificación de los valores del archivo 105 Página

122 Se guardan los cambios y se corre con el software (ver figuras y ): Figura : Abriendo el archivo prueba1.txt Figura : Ejecución del archivo 106 Página

123 Al hacer la ejecución en el software no nos crea ningún error y la señal se genera, la señal no es igual a la que se generó originalmente si no que tiene algunos cambios, por tal motivo este archivo es modificable. 4.3 Análisis experimental del ruido del generador Se observará y analizará el ruido a través de sus propiedades, con la finalidad de utilizarlo en alguna aplicación en el área de Comunicaciones. El ruido Blanco Gaussiano es una abstracción que nos permite realizar análisis de ruido en los sistemas de comunicaciones, por ello la importancia de su análisis, se observarán estos resultados y se decidirá si la señal que nos entrega el generador es la que se necesita, se realizará con la comprobación de sus propiedades estadísticas. Se parte con la idea de que el ruido que nos entrega a la salida el generador es del tipo Blanco Gaussiano Generación de la señal de ruido Ya teniendo las herramientas necesarias para la comprobación de las propiedades estadísticas, realizaremos los pasos a seguir para la obtención de los resultados. Se genera una señal de ruido a través del software, con parámetros de: Número de muestras= Frecuencia de muestreo=10 KHz (Esta frecuencia no modifica las propiedades de muestreo) Voltaje pico pico =2 La cual se muestra en la figura Página

124 Figura 4.3.1: Señal de ruido con muestras Con ésta señal se obtienen las muestras que se guardan en un archivo de nombre prueba2.txt con la finalidad de obtener el muestreo de la señal (ver figura 4.3.2). 108 Página

125 Figura 4.3.2: Archivo de la señal generada Con este archivo se pueden obtener sus propiedades estadísticas. 109 Página

126 Pruebas estadísticas Una vez generado el archivo en que se encuentran las muestras de la señal, se procederá a hacer las pruebas estadísticas de la señal a través del software MATLAB, con ayuda de esta herramienta se programará para obtener los promedios estadísticos, que a continuación se presentan: 1.- Primero se obtendrá la gráfica del ruido generado a través del generador, con la función plot (N), donde N es la variable en la cual se guardaron las muestras obtenidas. Plot es una función que nos ayuda a obtener la gráfica (ver figura 4.3.3). Figura 4.3.3: Gráfica del ruido a través de los valores muestreados Su medias es de: Su varianza es de: Se obtendrá la gráfica de la autocorrelación (ver figura 4.3.4), que se espera que sea un impulso unitario, ya que es un ruido blanco, éste se genera con las funciones: [Rnn,Tau]=xcorr(N,N) Figura 4.3.4: Gráfica de la correlación a través de los valores muestreados 110 Página

127 La función de autocorrelación describe la interdependencia de dos variables aleatorias obtenidas al observar un proceso aleatorio en tiempo separado segundos. Es una función que indica las diferencias entre los tiempos y no de un tiempo absoluto. Obtenida la gráfica se observa que el ruido generado tiene la característica de que su autocorrelación es un impulso unitario, lo que nos habla de un ruido blanco, es un caso particular de un proceso estocástico y su autocorrelación es: Por lo tanto es ruido blanco. 3.- Ahora bien ya obtenidas las dos gráficas anteriores, se hace una última prueba estadística, mediante la cual se sabrá si el ruido generado es gaussiano, para los fines buscados se requiere que sea gaussiano. Esto se obtendrá a través del histograma (ver figura 4.3.5), el cual se genera por la función: hist (N,20) Figura 4.3.5: Gráfica del histograma a través de los valores muestreados El ruido generado tiene un comportamiento uniforme, pues cumple con las características de una distribución uniforme, por lo que es ruido blanco uniforme; Nótese que se tiene 20 clases, el comportamiento que tiene esta gráfica es uniforme ya que la frecuencia de las clases es muy pareja. 111 Página

128 4.- Como última prueba obtendremos su densidad espectral de potencia (figura 4.3.6) Figura 4.3.6: Densidad espectral de potencia Obtenemos la gráfica anterior (ver figura 4.3.6) por el teorema de Wienner-Kintchine dice resumidamente menciona que la densidad espectral de potencia es igual a la FFT de la función de correlación. El resultado obtenido es que la potencia es constante en toda la gama de frecuencia ya que la FFT de una delta es una contante, por lo tanto el ruido generado es de tipo blanco. 112 Página

129 4.4 Generación del Ruido Blanco Gaussiano Una vez analizado el ruido producido por el generador, y conociendo sus propiedades estadísticas, se determina que es ruido blanco uniforme, que no era lo esperado por tal motivo, se realizarán las adecuaciones para generar ruido blanco Gaussiano. Se generara ruido blanco gaussiano pues se sabe que es una herramienta muy importante en las comunicaciones, pues sirve para realizar pruebas con él, al igual que se puede usar para hacer análisis del ruido en general, el ruido térmico se puede modelar con el ruido blanco gaussiano, por lo tanto esta aplicación nos ayudara a comprender en gran medida su comportamiento, a través de sus propiedades estadísticas. Primero hay que conocer las características del ruido gaussiano y su comportamiento. A continuación se enumeran y explicarán: 1.- Es un proceso aleatorio estocástico: ya que los valores que lo forman no tienen un comportamiento ordenado, lo cual quiere decir que se toman en forma aleatoria, ejemplo: Forma ordenada: 1, 2, 3, 4, 5. Forma aleatoria: Los parámetros que describen son: 2.- Un proceso estocástico Gaussiano queda completamente especificado por su media, varianza y función de autocorrelación. 3.- El ruido blanco gaussiano cumple con una función de densidad que responde a una distribución normal. 4.- Para el ruido blanco su densidad espectral de potencia se calcula usando el teorema de Wienner Kintchine el cual relaciona la densidad espectral de potencia con la transformada de Fourier de la función de autocorrelación. 6.- Blanco porque su espectro de frecuencia es plano. 113 Página

130 Generación de ruido por medio de MATLAB e intercalación A través de MATLAB se genera un archivo prueba3.txt el cual contiene las muestras de la señal generada por la programación, el cual contendrá los parámetros del muestreo. El número de muestras será de 1000 (ver figuras y 4.4.2). Sabiendo que el ruido blanco gaussiano, tiene una distribución normal, su autocorrelación es un impulso unitario y su densidad espectral de potencia es una constante se generar de la siguiente forma: Las función randn(m,n) que devuelven matrices de orden MxN de valores aleatorios independientes con una distribución normal de media 0 y varianza 1. Si deseamos obtener un conjunto de variables aleatorias normales con media m y varianza v basta con hacer: >> N = m + v*randn(m,n); (demostración Capitulo 3) Para un ruido estocástico, el valor medio m solo el valor medio del ruido en un largo intervalo y la varianza v es el valor medio cuadrático de las fluctuaciones sobre el valor medio. 114 Página

131 Figura 4.4.1: Prueba3.txt con 1000 muestras Figuras 4.4.2: Gráfica obtenida Se ha generado un archivo en el cual se tienen contenidos los valores muestreados, pero solo se tienen los valores, falta la intercalación del número de muestras, con las muestras, esto se realizara a través de Excel, al cual se le ingresara un macros que nos ayude a la intercalación de estos dos parámetros (ver figura 4.4.3): 115 Página

132 Figura 4.4.3: Activación de Macro El resultado se muestra en la figura 4.4.4: Figura 4.4.4: Intercalación hecha por medio de un macros en Excel 116 Página

133 Ahora se generara un archivo de 1000 muestras por medio del software para que se obtenga las cabeceras, y se introducen al generador (ver figura 4.4.5). Figura 4.4.5: Archivo con las cabeceras principales Con este archivo, en el cual se encuentran las cabeceras que se utilizarán para ingresarle los datos intercalados en Excel para poder ejecútalo por medio del software (ver figuras y 4.4.7). 117 Página

134 Figura 4.4.6: Datos anexados en tipo. txt que se intercalaron en Excel Figura 4.4.7: Gráfica obtenida del archivo prueba3.txt 118 Página

135 Generación de ruido por medio de una interfaz gráfica (MATLAB) Se ha comprobado que se puede generar ruido blanco gaussiano a través de MATLAB e inyectarlo al software, pero teniendo algunas limitaciones. Ahora se pretende generar una interfaz gráfica por medio de MATLAB, la cual genera las gráficas de ruido, correlación e histograma, las últimas dos son para comprobar sus propiedades estadísticas. MATLAB permite generar interfaces graficas por medio del comando guide, este comando nos desplegara una ventana (ver figura 4.4.9) en la cual se generan botones, tablas, etc., en cada uno de los botones se puede programar funciones que se desean que hagan (ver figura ), se puede dar forma color y textura a cada uno de ellos, eso queda al criterio y gusto de cada creador. Figura 4.4.9: Comando guide 119 Página

136 Figura : Programación de código Se generó una interfaz gráfica llamada graficoruido (ver figura ), en la cual se crearon los botones de ruido, correlación e histograma. 120 Página

137 Figura : Botones y axes de la interfaz gráfica Se correrá el programa para ver los resultados que nos arrojan (ver figuras , y ), con valores de varianza 1, media 0 y número de muestras 1000: Figura : Gráfica del ruido 121 Página

138 Figura : Gráfica de la correlación Figura : Gráfica del histograma 122 Página

139 4.4.3 Interfaz gráfica, generación de archivo.txt de autocorrelación y ruido De la interfaz ya generada en el apartado anterior, se modificara de tal forma que las variables a considerar no sean solo el número de muestras, varianza y media, si no también podamos ingresar la frecuencia de muestreo, adicionalmente nos arrojara la media y varianza de los números aleatorios que se generan (ver figura ), esto es para la comprobación del valor teórico respecto al experimental. Figura : interfaz modificada En el axes 2, 8, 5 se mostraran las imágenes de IPN, ESIME; y LAB. COMUNICACIONES, en el axes Jorge se mostrara la gráfica del ruido, en el axes se mostrara la gráfica de la correlación, y en el axes liz mostrara el histograma. Una vez hecha esta modificación se realizara un ejemplo: Se tiene como datos: Número de muestras 10,000 Media: 0 Varianza: Página

140 Frecuencia de muestreo: 100 KHz Como se muestra en la figura : Figura : Interfaz gráfica Se obtienen las tres gráficas, las cuales son la del ruido, correlación e histograma, adicionalmente se tienen los valores experimentales de la media y varianza, los cuales son: Media: Varianza: Siendo aproximados a los ingresados. Ahora se desea que la misma interfaz nos genere los archivos de tipo txt al presionar los botones de ruido y correlación, ya que estas gráficas son las que se pretenden inyectar al generador. 124 Página

141 Eso se hará con las siguientes instrucciones: fid = fopen('ruido.txt','wt'); printf(fid,'%s\n','rigol Technologies,Inc. Save analog waveform to text files.'); fprintf(fid,'%6.0f\n %12.15f\n',data); fprintf(fid,'%6.2f\n %12.8f\n',c); fprintf(fid,'%6.0f\n %12.0f\n',data1); fclose(fid); Estas se ingresarán en las funciones de ruido y correlación como lo indica la figura : Figura : Archivo del código de la interfaz 125 Página

142 Los archivo tendrán como nombre ruido.txt y correlacion.txt, coda uno de ellos tendrán las cabeceras y datos muestreados de las gráficas (ver figura ). Figura : Archivos generados ruido.txt y correlacion.txt Estos archivos se guardaran en la carpeta en donde esta guardada la interfaz gráfica. 126 Página

143 4.5 Resultados de la interfaz gráfica Ejemplo 1: Se genera las gráficas de ruido, correlación e histograma con los siguientes datos: Media: 0 Varianza: 1 Número de muestras 5000 Frecuencia de muestreo: 1KHZ Como se muestra en la figura 4.4.1: Figura 4.4.1: interfaz gráfica 127 Página

144 Los valores de la media y varianza experimentales son: Media: Varianza: Los archivos generados del ruido y correlación se ven en las figuras y 4.5.3: Figura 4.5.2: Ruido.txt Figura 4.5.3: Correlación.txt 128 Página

145 Obtenidos estos archivos los ejecutamos en el software cada uno de ellos (ver figuras y 4.5.5): Figura 4.5.4: Gráfica generada con el archivo generado por medio de MATLAB Figura 4.5.5: Gráfica generada con el archivo generado por medio de MATLAB 129 Página

146 Ahora se inyectar estas gráficas en el generador para ver las gráficas en forma eléctrica (ver figuras y 4.5.7). Figura 4.5.6: Señal del ruido generada a través de MATLAB en forma eléctrica Figura 4.5.7: Señal de la correlación generada a través de MATLAB en forma eléctrica 130 Página

147 En las siguientes figuras se muestra la densidad espectral de potencia del ruido tanto en el osciloscopio como en el analizador de espectro (ver fig y 4.5.9). Figura 4.5.8: FFT de la señal de ruido generado, desplegada en el osciloscopio Figura 4.5.9: Densidad espectral de potencia de la señal de ruido generado, desplegada en el analizador de espectro 131 Página

148 En la figura se observa la Transformada Rápida de Fourier (FFT) que se obtiene directamente con ayuda del menú de operaciones matemáticas del osciloscopio, el comportamiento aproximado a una constante es la característica del ruido blanco. En la figura se tiene la densidad espectral de potencia pero la diferencia con la figura anterior es que el analizador de espectro hace una descomposición a nivel hardware, no con una función matemática. Ejemplo 2: Se generan las gráficas de ruido, correlación e histograma con los siguientes datos: Media: 1 Varianza: 2 Número de muestras Frecuencias: 10 KHZ Como se muestra en la figura : Figura : Interfaz gráfica 132 Página

149 Los valores de la media y varianza experimentales son: Media: Varianza: 3.93 Los archivos generados del ruido y correlación se ven en las figuras y : Figura : Ruido.txt Figura : Correlación.txt 133 Página

150 Obtenidos estos archivos los ejecutares en el software cada uno de ellos (ver figuras y ): Figura : Gráfica generada con el archivo generado por medio de MATLAB Figura : Gráfica generada con el archivo generado por medio de MATLAB 134 Página

151 Ahora se inyectar estas graficas en el generador para ver las gráficas en forma eléctrica (ver figuras y ). Figura : Señal del ruido generada a través de MATLAB en forma eléctrica Figura : Señal de la correlación generada a través de MATLAB en forma eléctrica 135 Página

152 Conclusiones 136 Página

153 A través del generador de señales arbitrarias así como de la interfaz gráfica desarrollada con el software MATLAB, se logró desarrollar una aplicación que permite la generación de una señal de ruido blanco gaussiano. Con este desarrollo, los alumnos y profesores de la especialidad de comunicaciones podrán hacer uso de esta aplicación para desarrollar proyectos, prácticas y en general múltiples tareas que aportarán beneficios para el laboratorio, los alumnos y en general para la institución. El proyecto permite una expansión del mismo, como puede ser el sumar a la información a enviar la señal de ruido blanco para formar un canal AWGN, otra aplicación sería el desarrollo de un laboratorio de señales aleatorias o para ejemplificar códigos de línea de manera práctica, en fin, este proyecto sienta las bases para desarrollar múltiples aplicaciones relacionadas con la ingeniería en comunicaciones con fines educativos. 137 Página

154 Anexos 138 Página

155 Anexo 1 A.1 Data Sheet del generador DG2041A 139 Página

156 140 Página

157 141 Página

158 142 Página

159 143 Página

160 144 Página

161 145 Página

162 146 Página

163 147 Página

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

DISTRIBUCIONES DE PROBABILIDAD

DISTRIBUCIONES DE PROBABILIDAD DISTRIBUCIONES DE PROBABILIDAD VARIABLE ALEATORIA Una variable x valuada numéricamente varía o cambia, dependiendo del resultado particular del experimento que se mida. Por ejemplo, suponga que se tira

Más detalles

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18 5.1. Concepto de proceso estocástico. Tipos de procesos. Realización de un proceso. 5.2. Características de un proceso estocástico. 5.3. Ejemplos de procesos

Más detalles

PROCESOS ALEATORIOS. Capítulo AXIOMAS DE PROBABILIDAD

PROCESOS ALEATORIOS. Capítulo AXIOMAS DE PROBABILIDAD Capítulo 2 PROCESOS ALEATORIOS Los procesos aleatorios son importantes porque en casi todos los aspectos de la vida se presentan este tipo de situaciones en donde el comportamiento de un fenómeno o evento

Más detalles

Variables aleatorias

Variables aleatorias Variables aleatorias DEFINICIÓN En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de resultados observados al realizar un experimento aleatorio, presentando

Más detalles

Repaso de conceptos de álgebra lineal

Repaso de conceptos de álgebra lineal MÉTODOS AVANZADOS EN APRENDIZAJE ARTIFICIAL: TEORÍA Y APLICACIONES A PROBLEMAS DE PREDICCIÓN Manuel Sánchez-Montañés Luis Lago Ana González Escuela Politécnica Superior Universidad Autónoma de Madrid Repaso

Más detalles

Técnicas Cuantitativas para el Management y los Negocios I

Técnicas Cuantitativas para el Management y los Negocios I Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:

Más detalles

1. Experimentos aleatorios

1. Experimentos aleatorios 1. Eperimentos aleatorios La eperimentación es útil porque si se supone que llevamos a cabo ciertos eperimentos bajo condiciones esencialmente idénticas se llegará a los mismos resultados. En estas circunstancias,

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

Unidad IV: Distribuciones muestrales

Unidad IV: Distribuciones muestrales Unidad IV: Distribuciones muestrales 4.1 Función de probabilidad En teoría de la probabilidad, una función de probabilidad (también denominada función de masa de probabilidad) es una función que asocia

Más detalles

Distribuciones de probabilidad

Distribuciones de probabilidad Distribuciones de probabilidad Distribución Binomial La distribución binomial es una de las distribuciones utilizadas más ampliamente en estadística aplicada. La distribución se deriva del procedimiento

Más detalles

ENRIC RUIZ MORILLAS ESTADÍSTICA APLICADA A EXPERIMENTOS Y MEDICIONES

ENRIC RUIZ MORILLAS ESTADÍSTICA APLICADA A EXPERIMENTOS Y MEDICIONES ENRIC RUIZ MORILLAS ESTADÍSTICA APLICADA A EXPERIMENTOS Y MEDICIONES Índice 1. Experimento y medición...1 2. Frecuencia y probabilidad...3 3. Características teóricas de las variables aleatorias...25 4.

Más detalles

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18 2.1. Concepto de variable aleatoria. Tipos de variables aleatorias: discretas y continuas. 2.2. Variables aleatorias discretas. Diagrama de

Más detalles

Unidad 3. Probabilidad

Unidad 3. Probabilidad Unidad 3. Probabilidad Javier Santibáñez 17 de agosto de 2018 1. Introducción Definición 1. La probabilidad es una medida subjetiva del grado de creencia que se tiene acerca de que algo desconocido sea

Más detalles

3. Variables aleatorias

3. Variables aleatorias 3. Variables aleatorias Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 3. Variables aleatorias Curso 2009-2010 1 / 33 Contenidos 1 Variables aleatorias y su distribución

Más detalles

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri Estadística 010 Clase Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 1. La distribución de Bernoulli. La distribución binomial 3. La distribución de

Más detalles

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Estadística Clase 2. Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri Estadística 011 Clase Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri Clase 1. La distribución de Bernoulli. La distribución binomial 3. La distribución de

Más detalles

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA DEPARTAMENTO DE ELECTRÓNICA

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA DEPARTAMENTO DE ELECTRÓNICA 508 515 SEMANA: PROPÓSITO Esta asignatura ofrece al alumno los conocimientos básicos para analizar sistemas estocásticos que se encuentran descritos mediante variables aleatorias proporcionándole las herramientas

Más detalles

Procesos estocásticos

Procesos estocásticos Teoría de la comunicación Comunicaciones - U.A.H. Indice Probabilidad. Variables Aleatorias. Procesos Estocásticos. Comunicaciones - U.A.H. Probabilidad Probabilidad. Dado un experimento ε del tipo que

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro

Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro Probabilidad es una manera de indicar la posibilidad de ocurrencia de un evento futuro La probabilidad nos proporciona un modelo teórico para la generación de los datos experimentales Medidas de la Posibilidad

Más detalles

Distribuciones de Probabilidad

Distribuciones de Probabilidad Distribuciones de Probabilidad Variables Aleatorias Ahora se introducirá el concepto de variable aleatoria y luego se introducirán las distribuciones de probabilidad discretas más comunes en la práctica

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Enrique Miranda Universidad of Oviedo Máster Universitario en Análisis de Datos para la Inteligencia de Negocios Contenidos del curso 1. Introducción. 2. Procesos a tiempo discreto:

Más detalles

Requisitos Matemáticos. Clase 01. Profesor: Carlos R. Pitta. ICPM050, Econometría. Universidad Austral de Chile Escuela de Ingeniería Comercial

Requisitos Matemáticos. Clase 01. Profesor: Carlos R. Pitta. ICPM050, Econometría. Universidad Austral de Chile Escuela de Ingeniería Comercial Universidad Austral de Chile Escuela de Ingeniería Comercial ICPM050, Econometría Clase 01 Requisitos Matemáticos Profesor: Carlos R. Pitta Econometría, Prof. Carlos R. Pitta, Universidad Austral de Chile.

Más detalles

Repaso de Teoría de la Probabilidad

Repaso de Teoría de la Probabilidad Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos

Más detalles

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales:

Probabilidad Condicional. Teorema de Bayes para probabilidades condicionales: Probabilidad Condicional Teorema de Bayes para probabilidades condicionales: Definición: Sea S el espacio muestral de un experimento. Una función real definida sobre el espacio S es una variable aleatoria.

Más detalles

Cálculo y EstadísTICa. Primer Semestre.

Cálculo y EstadísTICa. Primer Semestre. Cálculo y EstadísTICa. Primer Semestre. EstadísTICa Curso Primero Graduado en Geomática y Topografía Escuela Técnica Superior de Ingenieros en Topografía, Geodesia y Cartografía. Universidad Politécnica

Más detalles

Algunas Distribuciones Discretas de Probabilidad. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Algunas Distribuciones Discretas de Probabilidad. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides Algunas Distribuciones Discretas de Probabilidad UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción El comportamiento de una variable aleatoria queda

Más detalles

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M. Desde un punto de vista formal, los vectores aleatorios son la herramienta matemática adecuada para transportar

Más detalles

Tema 4: Variables aleatorias.

Tema 4: Variables aleatorias. Estadística 46 Tema 4: Variables aleatorias. El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos aleatorios, que en muchos

Más detalles

Distribución de probabilidad

Distribución de probabilidad Los experimentos aleatorios originan resultados y los resultados nos permiten tomar decisiones Por ejemplo, en un partido de fútbol si se lanza una moneda y sale cara parte la visita, de lo contrario parte

Más detalles

TEMA 3.- VECTORES ALEATORIOS.- CURSO

TEMA 3.- VECTORES ALEATORIOS.- CURSO TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.

Más detalles

Tema 7. Variables Aleatorias Continuas

Tema 7. Variables Aleatorias Continuas Presentación y Objetivos. Tema 7. Variables Aleatorias Continuas En este tema se propone el estudio de las variables aleatorias continuas más importantes, desde la más simple incrementando el grado de

Más detalles

Tema 5. Variables Aleatorias

Tema 5. Variables Aleatorias Tema 5. Variables Aleatorias Presentación y Objetivos. En este tema se estudia el concepto básico de Variable Aleatoria así como diversas funciones fundamentales en su desarrollo. Es un concepto clave,

Más detalles

TEMA 3.- MODELOS DISCRETOS

TEMA 3.- MODELOS DISCRETOS TEMA 3.- MODELOS DISCRETOS 3.1. Introducción. 3.2. Distribución uniforme discreta de parámetro n. 3.3.Distribución Bernoulli de parámetro p. 3.4.Distribución Binomial de parámetros n y p. Notación: X Bn,

Más detalles

Tema 3: VARIABLES ALEATORIAS

Tema 3: VARIABLES ALEATORIAS Tema 3: VARIABLES ALEATORIAS Introducción En el tema anterior hemos modelizado el comportamiento de los experimentos aleatorios. Los resultados de un experimento aleatorio pueden ser de cualquier naturaleza,

Más detalles

Variables Aleatorias y Principios de Simulación.

Variables Aleatorias y Principios de Simulación. Variables Aleatorias y Principios de Simulación http://humberto-r-alvarez-a.webs.com Conceptos de probabilidad La Teoría de Probabilidad trata fenómenos que pueden ser modelados por experimentos cuyos

Más detalles

Folleto de Estadísticas. Teoría del 1er Parcial

Folleto de Estadísticas. Teoría del 1er Parcial Folleto de Estadísticas Teoría del 1er Parcial 2012 Población objetivo: Es un conjunto bien definido de elementos sobre los que se desea hacer algún tipo de investigación o medida. Unidades de investigación:

Más detalles

Prof. Eliana Guzmán U. Semestre A-2015

Prof. Eliana Guzmán U. Semestre A-2015 Unidad III. Variables aleatorias Prof. Eliana Guzmán U. Semestre A-2015 Variable Aleatoria Concepto: es una función que asigna un número real, a cada elemento del espacio muestral. Solo los experimentos

Más detalles

MODELOS DISCRETOS DE PROBABILIDAD

MODELOS DISCRETOS DE PROBABILIDAD MODELOS DISCRETOS DE PROBABILIDAD M. en C. Juan Carlos Gutiérrez Matus Instituto Politécnico Nacional 2004 IPN UPIICSA c 2004 Juan C. Gutiérrez Matus Modelo Uniforme Discreto Modelo Uniforme Discreto Sea

Más detalles

Page 1 of 5 Departamento: Dpto Matematica Nombre del curso: PROBABILIDAD Y ESTADÍSTICA Clave: 003872 Academia a la que pertenece: Probabilidad y Estadística Requisitos: Requisito de Probabilidad y Estad

Más detalles

Tema 3. Probabilidad y variables aleatorias

Tema 3. Probabilidad y variables aleatorias 1 Tema 3. Probabilidad y variables aleatorias En este tema: Probabilidad: Experimentos aleatorios, espacio muestral, sucesos. Interpretaciones de la probabilidad. Propiedades de la probabilidad. Probabilidad

Más detalles

DEPARTAMENTO: Matemáticas NOMBRE DEL CURSO: Probabilidad y Estadística CLAVE: 1016M ACADEMIA A LA QUE PERTENECE: Probabilidad y Estadística

DEPARTAMENTO: Matemáticas NOMBRE DEL CURSO: Probabilidad y Estadística CLAVE: 1016M ACADEMIA A LA QUE PERTENECE: Probabilidad y Estadística PROGRAMA DE CURSO Modelo 2009 DEPARTAMENTO: Matemáticas NOMBRE DEL CURSO: Probabilidad y Estadística CLAVE: 1016M ACADEMIA A LA QUE PERTENECE: Probabilidad y Estadística PROFESIONAL ASOCIADO Y LICENCIATURA

Más detalles

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema: Tema 4: Variables aleatorias Tema 4: Variables Aleatorias Distribución de Bernouilli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno

Más detalles

Unidad 1: Espacio de Probabilidad

Unidad 1: Espacio de Probabilidad Unidad 1: Espacio de Probabilidad 1.1 Espacios de Probabilidad. (1) Breve introducción histórica de las probabilidades (2) Diferencial entre modelos matemáticos deterministicos y probabilísticos (3) Identificar

Más detalles

Conceptos básicos estadísticos

Conceptos básicos estadísticos Conceptos básicos estadísticos Población Población, en estadística, también llamada universo o colectivo, es el conjunto de elementos de referencia sobre el que se realizan las observaciones. El concepto

Más detalles

Bioestadística. Curso Capítulo 3

Bioestadística. Curso Capítulo 3 Bioestadística. Curso 2012-2013 Capítulo 3 Carmen M a Cadarso, M a del Carmen Carollo, Xosé Luis Otero, Beatriz Pateiro Índice 1. Introducción 2 2. Variable aleatoria 2 2.1. Variables aleatorias discretas...............................

Más detalles

Distribuciones de probabilidad más usuales

Distribuciones de probabilidad más usuales Tema 5 Distribuciones de probabilidad más usuales En este tema se estudiarán algunas de las distribuciones discretas y continuas más comunes, que se pueden aplicar a una gran diversidad de problemas y

Más detalles

LECTURA 10: NOCIONES DE PROBABILIDAD (PARTE I) DEFINICIONES BÁSICAS DE PROBABILIDAD. PROBABILIDAD Y ENFOQUES DE PROBABILIDAD

LECTURA 10: NOCIONES DE PROBABILIDAD (PARTE I) DEFINICIONES BÁSICAS DE PROBABILIDAD. PROBABILIDAD Y ENFOQUES DE PROBABILIDAD LECTURA 10: NOCIONES DE PROBABILIDAD (PARTE I) DEFINICIONES BÁSICAS DE PROBABILIDAD. PROBABILIDAD Y ENFOQUES DE PROBABILIDAD TEMA 20: DEFINICIONES BASICAS DE PROBABILIDAD 1. EXPERIMENTO Un experimento

Más detalles

Introducción. Aplicaciones. Ciencias físicas Ingeniería Negocios Ciencias biológicas y de la salud Ciencias sociales y educación

Introducción. Aplicaciones. Ciencias físicas Ingeniería Negocios Ciencias biológicas y de la salud Ciencias sociales y educación Introducción La estadística es la ciencia que se ocupa del análisis de datos y del proceso de toma de decisiones acerca del sistema del cual fueron obtenidos los datos. Aplicaciones Ciencias físicas Ingeniería

Más detalles

Teoría Estadística Elemental I Teoría (resumida) del 2 do Tema

Teoría Estadística Elemental I Teoría (resumida) del 2 do Tema Teoría Estadística Elemental I Teoría (resumida) del 2 do Tema Raúl Jiménez Universidad Carlos III de Madrid Noviembre 2011 Consideremos el lanzamiento de un dado, Ω = {1, 2, 3, 4, 5, 6}, y supongamos

Más detalles

1. La Distribución Normal

1. La Distribución Normal 1. La Distribución Normal Los espacios muestrales continuos y las variables aleatorias continuas se presentan siempre que se manejan cantidades que se miden en una escala continua; por ejemplo, cuando

Más detalles

EXPERIMENTO ALEATORIO

EXPERIMENTO ALEATORIO EXPERIMENTO ALEATORIO En concepto de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, en otras palabras,

Más detalles

Distribución de Probabilidad

Distribución de Probabilidad Distribución de Probabilidad Variables discretas Álvaro José Flórez 1 Escuela de Ingeniería Industrial y Estadística Facultad de Ingenierías Febrero - Junio 2012 Modelos probabilísticos Un modelo es una

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Sondeo Que tanto han visto sobre temas relacionados con probablidad y estadística? Por ejemplo: combinaciones, permutaciones, teorema del binomio, teoría de conjuntos? Probabilidad

Más detalles

Fundamentos de la Teoría de la Probabilidad. Ing. Eduardo Cruz Romero

Fundamentos de la Teoría de la Probabilidad. Ing. Eduardo Cruz Romero Fundamentos de la Teoría de la Probabilidad Ing. Eduardo Cruz Romero www.tics-tlapa.com Teoría elemental de la probabilidad (1/3) El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos

Más detalles

Resumen de Probabilidad

Resumen de Probabilidad Definiciones básicas * Probabilidad Resumen de Probabilidad Para calcular la probabilidad de un evento A: P (A) = N o decasosfavorables N o decasosposibles * Espacio muestral (Ω) Es el conjunto de TODOS

Más detalles

VARIABLES ALEATORIAS INTRODUCCIÓN

VARIABLES ALEATORIAS INTRODUCCIÓN DOCENTE: SERGIO ANDRÉS NIETO DUARTE CURSO: ESTADÍSTICA DE LA PROBABILIDAD VARIABLES ALEATORIAS INTRODUCCIÓN Normalmente, los resultados posibles (espacio muestral E) de un experimento aleatorio no son

Más detalles

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO

RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO RESUMEN DE ALGUNOS CONCEPTOS ESTADÍSTICOS ELEMENTALES Y NOTACIÓN EMPLEADA EN EL CURSO 1 rojo 1 2 3 4 5 6 Supongamos que tenemos dos dados, uno rojo y otro verde, cada uno de los cuales toma valores entre

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Probabilidad, un concepto básico el cual puede considerarse como indefinido, expresando de algún modo un grado de creencia, o la frecuencia límite de una serie aleatoria. Ambos

Más detalles

Estadística. Conceptos de Estadística inferencial

Estadística. Conceptos de Estadística inferencial Estadística Conceptos de Estadística inferencial Estadística inferencial Es la rama de la Estadística que, basada en la descriptiva, estudia el comportamiento y propiedades de las muestras, y la posibilidad

Más detalles

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22

Unidad 3. Probabilidad. Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre / 22 Unidad 3. Probabilidad Javier Santibáñez (IIMAS, UNAM) Inferencia Estadística Semestre 2018-1 1 / 22 Espacios de probabilidad El modelo matemático para estudiar la probabilidad se conoce como espacio de

Más detalles

Cuáles son las características aleatorias de la nueva variable?

Cuáles son las características aleatorias de la nueva variable? Apuntes de Estadística II. Ingeniería Industrial. UCAB. Marzo 203 CLASES DE ESTADÍSTICA II CLASE 5) UNA TRANSFORMACIÓN DE DOS VARIABLES. Sea Z = g(, ) una función de las variables aleatorias e, tales que

Más detalles

C L A S E N 5 I N S E M E S T R E O T O Ñ O,

C L A S E N 5 I N S E M E S T R E O T O Ñ O, Unidad 1 a. Probabilidades y Estadística 1 C L A S E N 5 I N 3 4 0 1 S E M E S T R E O T O Ñ O, 2 0 1 2 Características de las v.a 2 Parámetros v.a. La función de densidad o la distribución de probabilidad

Más detalles

UNIVERSIDAD AUTÓNOMA DE CHIHUAHUA Clave: 08MSU0017H. Clave: 08USU4053W FACULTAD DE INGENIERÍA PROGRAMA DEL CURSO: PROBABILIDAD Y ESTADISTICAS

UNIVERSIDAD AUTÓNOMA DE CHIHUAHUA Clave: 08MSU0017H. Clave: 08USU4053W FACULTAD DE INGENIERÍA PROGRAMA DEL CURSO: PROBABILIDAD Y ESTADISTICAS UNIVERSIDAD AUTÓNOMA DE CHIHUAHUA Clave: 08MSU007H Clave: 08USU4053W FACULTAD DE INGENIERÍA PROGRAMA DEL CURSO: PROBABILIDAD Y ESTADISTICAS DES: Programa(s) Educativo(s): Tipo de materia: Clave de la materia:

Más detalles

Probabilidades. Gerardo Arroyo Brenes

Probabilidades. Gerardo Arroyo Brenes Probabilidades Gerardo Arroyo Brenes Teoría de las Probabilidades Experimento: Es toda acción o proceso que produce resultados bien definidos. Ejemplos: Experimento Resultado: Lanzar una moneda Cara o

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Grado en Ingeniería Informática Tema 4 Vectores aleatorios Javier Cárcamo Departamento de Matemáticas Universidad Autónoma de Madrid javier.carcamo@uam.es Javier Cárcamo PREST.

Más detalles

Estadística y Probabilidad

Estadística y Probabilidad La universidad Católica de Loja Estadística y Probabilidad ESCUELA DE ELECTRÓNICA Y TELECOMUNICACIONES Paralelo C Nombre: Milner Estalin Cumbicus Jiménez. Docente a Cargo: Ing. Patricio Puchaicela. Ensayo

Más detalles

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4

matemáticas como herramientas para solución de problemas en ingeniería. PS Probabilidad y Estadística Clave de la materia: Cuatrimestre: 4 PS0401 - Probabilidad y Estadística DES: Ingeniería Programa(s) Educativo(s): Ingeniería de Software Tipo de materia: Obligatoria Clave de la materia: PS0401 Cuatrimestre: 4 UNIVERSIDAD AUTÓNOMA DE Área

Más detalles

Ejercicio 1. Ejercicio 2

Ejercicio 1. Ejercicio 2 Guía de Ejercicios Ejercicio. Calcular los momentos de primer y segundo orden (media y varianza) de una variable aleatoria continua con distribución uniforme entre los límites a y b.. Sabiendo que la función

Más detalles

Estadística aplicada al Periodismo

Estadística aplicada al Periodismo Estadística aplicada al Periodismo Temario de la asignatura Introducción. Análisis de datos univariantes. Análisis de datos bivariantes. Series temporales y números índice. Probabilidad y Modelos probabilísticos.

Más detalles

Variables aleatorias

Variables aleatorias Estadística Variables aleatorias Supongamos que realizamos el experimento: tirar dos veces un dado. Hasta ahora, hemos tratado sucesos, por ejemplo: A2 = la suma de dos tiradas de un dado es 2. Podemos

Más detalles

Momentos de Funciones de Vectores Aleatorios

Momentos de Funciones de Vectores Aleatorios Capítulo 1 Momentos de Funciones de Vectores Aleatorios 1.1 Esperanza de Funciones de Vectores Aleatorios Definición 1.1 Sea X = (X 1,..., X n ) un vector aleatorio (absolutamente continuo o discreto)

Más detalles

U D PROBABILIDAD 2º BACHILLERATO Col. LA PRESENTACIÓN PROBABILIDAD

U D PROBABILIDAD 2º BACHILLERATO Col. LA PRESENTACIÓN PROBABILIDAD PROBABILIDAD 0. DEFINICIONES PREVIAS 1. DISTINTAS CONCEPCIONES DE PROBABILIDAD a. Definición Clásica b. Definición Frecuentista 2. DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD a. Espacio Muestral b. Suceso Aleatorio

Más detalles

Probabilidad y Estadística

Probabilidad y Estadística Probabilidad y Estadística Tema 4 Variables aleatorias Objetivo de aprendizaje del tema Al finalizar el tema serás capaz de: Describir las características de las variables aleatorias discretas y continuas.

Más detalles

Distribuciones de probabilidad Discretas

Distribuciones de probabilidad Discretas Distribuciones de probabilidad Discretas Distribución Uniforme Discreta Definición Una variable aleatoria X, tiene una distribución uniforme discreta, si cada uno de los valores x 1, x 2,.. x n, tiene

Más detalles

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema: Modelos de probabilidad Modelos de probabilidad Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribución Exponencial Objetivos del tema: Al final del tema el alumno será capaz

Más detalles

Objetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev

Objetivo: Comprender la diferencia entre valor esperado, varianza y desviación estándar. Poner en práctica el teorema de Chebyshev PROBABILIDAD Y ESTADÍSTICA Sesión MODELOS ANALÍTICOS DE FENÓMENOS ALEATORIOS CONTINUOS. Definición de variable aleatoria continua. Función de densidad y acumulatíva. Valor esperado, varianza y desviación

Más detalles

Conjuntos Los conjuntos se emplean en muchas áreas de las matemáticas, de modo que es importante una comprensión de los conjuntos y de su notación.

Conjuntos Los conjuntos se emplean en muchas áreas de las matemáticas, de modo que es importante una comprensión de los conjuntos y de su notación. NÚMEROS REALES Conjuntos Los conjuntos se emplean en muchas áreas de las matemáticas, de modo que es importante una comprensión de los conjuntos y de su notación. Un conjunto es una colección bien definida

Más detalles

ESTADÍSTICA I. A continuación se presentan los Modelos Probabilísticos Continuos más importantes.

ESTADÍSTICA I. A continuación se presentan los Modelos Probabilísticos Continuos más importantes. 1 ESTADÍSTICA I Capítulo 6: MODELOS PROBABILÍSTICOS CONTINUOS. Contenido: Distribución Uniforme Continua. Distribución Triangular. Distribución Normal. Distribuciones Gamma, Exponencial, Erlang y Chi Cuadrado.

Más detalles

Unidad II: Fundamentos de la teoría de probabilidad

Unidad II: Fundamentos de la teoría de probabilidad Unidad II: Fundamentos de la teoría de probabilidad 2.1 Teoría elemental de probabilidad El Cálculo de Probabilidades se ocupa de estudiar ciertos experimentos que se denominan aleatorios, cuya característica

Más detalles

TEMA 1.- PROBABILIDAD.- CURSO

TEMA 1.- PROBABILIDAD.- CURSO TEMA 1.- PROBABILIDAD.- CURSO 2016-2017 1.1.- Introducción. Definición axiomática de probabilidad. Consecuencias de los axiomas. 1.2.- Probabilidad condicionada. 1.3.- Independencia de sucesos. 1.4.- Teoremas

Más detalles

4. NÚMEROS PSEUDOALEATORIOS.

4. NÚMEROS PSEUDOALEATORIOS. 4. NÚMEROS PSEUDOALEATORIOS. En los experimentos de simulación es necesario generar valores para las variables aleatorias representadas estas por medio de distribuciones de probabilidad. Para poder generar

Más detalles

Funciones generadoras de probabilidad

Funciones generadoras de probabilidad Funciones generadoras de probabilidad por Ramón Espinosa Armenta En este artículo veremos cómo utilizar funciones generadoras en teoría de la probabilidad. Sea Ω un conjunto finito o numerable de resultados

Más detalles

LABORATORIO No. 0. Cálculo de errores en las mediciones. 0.1 Introducción

LABORATORIO No. 0. Cálculo de errores en las mediciones. 0.1 Introducción LABORATORIO No. 0 Cálculo de errores en las mediciones 0.1 Introducción Es bien sabido que la especificación de una magnitud físicamente medible requiere cuando menos de dos elementos: Un número y una

Más detalles

Introducción al Diseño de Experimentos.

Introducción al Diseño de Experimentos. Introducción al Diseño de Experimentos www.academia.utp.ac.pa/humberto-alvarez Introducción Una población o universo es una colección o totalidad de posibles individuos, especímenes, objetos o medidas

Más detalles

Estructuras Discretas. Conjuntos. Conjuntos & Funciones. Especificación de Conjuntos.

Estructuras Discretas. Conjuntos. Conjuntos & Funciones. Especificación de Conjuntos. Estructuras Discretas Conjuntos Conjuntos & Funciones Claudio Lobos clobos@inf.utfsm.cl niversidad Técnica Federico Santa María Estructuras Discretas INF 152 Definición: conjunto n conjunto es una colección

Más detalles

UNIDAD II: EXRIMENTOS ALEOTORIOS

UNIDAD II: EXRIMENTOS ALEOTORIOS UNIDAD II: EXRIMENTOS ALEOTORIOS Un experimento aleatorio es aquél en el que si lo repetimos con las mismas condiciones iniciales no garantiza los mismos resultados. Así, por ejemplo, al lanzar una moneda

Más detalles

Tema 13: Distribuciones de probabilidad. Estadística

Tema 13: Distribuciones de probabilidad. Estadística Tema 13: Distribuciones de probabilidad. Estadística 1. Variable aleatoria Una variable aleatoria es una función que asocia a cada elemento del espacio muestral, de un experimento aleatorio, un número

Más detalles

IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS

IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS Ing. Fredy Ruiz Ph.D. ruizf@javeriana.edu.co Maestría en Ingeniería Electrónica Pontificia Universidad Javeriana 2013 Sistema Un sistema

Más detalles

Econometría II Grado en finanzas y contabilidad

Econometría II Grado en finanzas y contabilidad Econometría II Grado en finanzas y contabilidad Variables aleatorias y procesos estocásticos. La FAC y el correlograma Profesora: Dolores García Martos E-mail:mdgmarto@est-econ.uc3m.es Este documento es

Más detalles

La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se pueden predecir con certeza, y estudia sus consecuencias lógicas.

La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se pueden predecir con certeza, y estudia sus consecuencias lógicas. La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se pueden predecir con certeza, y estudia sus consecuencias lógicas. Dado un experimento y cualquier evento A: La expresion

Más detalles

SIMULACIÓN EN EXCEL DE VARIABLES ALEATORIAS DISCRETAS

SIMULACIÓN EN EXCEL DE VARIABLES ALEATORIAS DISCRETAS SIMULACIÓN EN ECEL DE VARIABLES ALEATORIAS DISCRETAS Giovanni Sanabria Brenes gsanabriab@yahoo.com Instituto Tecnológico de Costa Rica Universidad de Costa Rica, Costa Rica Tema: V.5 - TIC y Matemática.

Más detalles

Definición de variable aleatoria

Definición de variable aleatoria Variables aleatorias Instituto Tecnológico Superior de Tepeaca Agosto-Diciembre 2015 Ingeniería en Sistemas Computacionales M.C. Ana Cristina Palacios García Definición de variable aleatoria Las variables

Más detalles

SEÑALES Y SISTEMAS Clase 5

SEÑALES Y SISTEMAS Clase 5 SEÑALES Y SISTEMAS Clase 5 Carlos H. Muravchik 15 de Marzo de 2018 1 / 43 Habíamos visto: Repaso Probabilidades (sobrevuelo) Veremos: 1. Repaso Probabilidades 2. Repaso Variables aleatorias. Distribuciones.

Más detalles

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias.

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias. Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias. Dr. Rafael Morones E. Dept. de Matemáticas ITAM August 5, 2002 1 Contenido 1 Preliminares. 3 1.1 Sucesiones...............................

Más detalles

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido Tema 4 Variables aleatorias En este tema se introduce el concepto de variable aleatoria y se estudian los distintos tipos de variables aleatorias a un nivel muy general, lo que nos permitirá manejar los

Más detalles