Apunte 2 - Procesamiento de señales

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Apunte 2 - Procesamiento de señales"

Transcripción

1 Apunte 2 - Procesamiento de señales Este apunte está constituido por extractos de algunos textos sobre procesamiento de señales, principalmente, aunque no exclusivamente, el de Proakis y Manolakis. Para simplificar la lectura se eliminó el formato convencional de las citas bibliográficas y en algunos casos se las adaptó libremente. La intención fundamental del apunte es complementar el capítulo correspondiente de Huang con algunos conocimientos previos y síntesis de algunos temas. Se sigue el orden de presentación de los temas de Huang, manteniéndose incluso los títulos principales y su numeración. 5.1 Señales digitales y sistemas Definiciones preliminares Una señal se define como una cantidad física que varía con el tiempo, el espacio o cualquier otra variable o variables independientes. Matemáticamente, describimos una señal como una función de una o más variables independientes. Por ejemplo, las funciones (1) s 1 (t) = 5t (2) s 2 (t) = 20t 2 describen dos señales, una que varía linealmente con la variable independiente t (tiempo) y una segunda que varía cuadráticamente con t. Las señales descritas en (1) y (2) pertenecen a las clases de señales que quedan perfectamente definidas especificando la dependencia funcional con la variable independiente. Sin embargo, existen casos en los que dicha relación funcional es desconocida o demasiado complicada como para tener utilidad práctica. Por ejemplo, una señal de voz no se puede describir funcionalmente mediante expresiones como (1). En general, un segmento de voz puede representarse con un alto grado de exactitud como la suma de varias sinusoides de diferentes amplitudes y frecuencias, esto es, como N (3) i= 1 A i (t) sen[2π F i (t)t + θ i (t)] donde {A i (t)}, {F i (t)} y {θ i (t)} son los conjuntos (probablemente variables en el tiempo) de amplitudes, frecuencias y fases, respectivamente de las sinusoides. De hecho, una manera de interpretar la información o el mensaje contenido en un segmento corto de una señal de voz es medir las amplitudes, frecuencias y fases contenidas en el segmento corto de señal. Otros ejemplos de señales naturales son los electrocardiogramas y los electroencefalogramas. Las señales de voz, los electrocardiogramas y los electroencefalogramas son ejemplos de señales que portan información y que varían como funciones de una única variable independiente, el tiempo. Una imagen constituye un ejemplo de señal que varía en dos variables independientes. Las dos variables independientes en este caso son las coordenadas espaciales. Estos son unos pocos ejemplos de un incontable número de señales naturales que se pueden encontrar en la práctica. Asociados a las señales naturales se encuentran los medios con los que se generan. Por ejemplo, las señales de voz se generan al forzar el paso del aire a través de las cuerdas vocales. Las imágenes se obtienen exponiendo película fotográfica ante un paisaje u objeto. Por lo tanto, la forma en la que se generan las señales se encuentra asociada con un sistema que responde ante un estímulo o fuerza. En una señal de voz, el sistema está constituido por las cuerdas vocales y el tracto bucal, también llamado cavidad bucal. El estímulo en combinación con el sistema se llama fuente de la señal. Un sistema se puede definir también como un dispositivo físico que realiza una operación sobre una señal. Por ejemplo, un filtro que se usa para reducir el ruido y las interferencias que corrompen una señal también se denomina sistema. En este caso, el filtro

2 2 realiza algunas operaciones sobre la señal cuyo efecto es reducir (filtrar) el ruido y la interferencia presentes en la señal deseada. Cuando pasamos una señal a través de un sistema, como en el caso del filtrado, decimos que hemos procesado la señal. En este caso, el procesamiento de la señal implica la separación de la señal deseada del ruido y la interferencia. En general, el sistema se caracteriza por el tipo de operación que realiza sobre la señal. Por ejemplo, si la operación es lineal, el sistema se denomina lineal, si la operación es no lineal, el sistema se dice no lineal, etc. Estas operaciones se denominan habitualmente procesamiento de señales. Es conveniente ampliar la definición de sistema para incluir no solo dispositivos físicos, sino también realizaciones en software de operaciones sobre una señal. En el procesamiento digital de señales en una computadora, las operaciones realizadas sobre una señal constan de varias operaciones matemáticas especificadas por un programa de software. El procesamiento de señales involucra primero obtener una representación de la señal sobre la base de un modelo dado y luego la aplicación de alguna transformación de alto nivel para poner la señal en una forma más conveniente. El último paso en el proceso es la extracción y utilización de la información del mensaje. Este paso puede ser realizado por oyentes humanos o automáticamente por máquinas. Entonces, el procesamiento de las señales de habla involucra generalmente dos tareas. Primero, es un vehículo para obtener una representación general de una señal de habla en forma de onda o paramétrica. Segundo, el procesamiento de señales sirve la función de ayudar en el proceso de transformar la representación de la señal en formas alternativas no menos generales por naturaleza, pero más apropiadas para aplicaciones específicas. En los sistemas de comunicación de habla, la señal de habla es transmitida, almacenada y procesada de muchos modos. Las preocupaciones técnicas llevan a una amplia variedad de representaciones de la señal del habla. En general, hay dos preocupaciones importantes en cualquier sistema: 1. Preservación del contenido del mensaje en la señal de habla. 2. Representación de la señal del habla en una forma que sea conveniente para la transmisión o almacenamiento, o en una forma que sea flexible de modo que las modificaciones puedan hacerse a la señal de habla sin degradar seriamente el contenido del mensaje. La representación de la señal de habla debe ser tal que el contenido de información puede ser extraído fácilmente por oyentes humanos o automáticamente por máquina. Las representaciones de las señales de habla pueden clasificarse en dos grandes grupos: representaciones de forma de onda y representaciones paramétricas. Las representaciones de forma de onda como lo implica el nombre se ocupan simplemente de preservar la forma de onda de la señal de habla analógica a través de un proceso de muestreo y cuantización. Las representaciones paramétricas, por otro lado, se ocupan de representar la señal de habla como salida de un modelo de producción de habla. El primer paso para obtener una representación paramétrica es frecuentemente una representación digital de la forma de onda; esto es, la señal de habla es muestreada y cuantificada y luego procesada para obtener los parámetros del modelo de producción de habla. Los parámetros de este modelo pueden clasificarse convenientemente como parámetros de excitación (esto es, relacionados con la fuente de los sonidos del habla) o parámetros de respuesta del tracto (esto es, relacionados con sonidos de habla individuales). El procesamiento de las señales de habla involucra generalmente dos tareas. Primero, es un vehículo para obtener una representación general de una señal de habla en forma de onda o paramétrica. Segundo, el procesamiento de señales sirve la función de ayudar en el proceso de transformar la señal en formas alternativas que son menos generales por naturaleza, pero más apropiadas para aplicaciones específicas.

3 3 El procesamiento digital de señales se ocupa de obtener representaciones discretas de señales y de la teoría, diseño e implementación de los procedimientos numéricos para procesar la representación discreta. Los objetivos en el procesamiento digital de señales son idénticos a los del procesamiento de señal analógica. Elementos básicos de un sistema de procesamiento digital de señales La mayor parte de las señales que aparecen en los ámbitos de la ciencia y la ingeniería son de naturaleza analógica, es decir, las señales son funciones de una variable continua, como el tiempo o el espacio y normalmente toman valores en un rango continuo. Estas señales pueden ser procesadas directamente por sistemas analógicos adecuados (como filtros o analizadores de frecuencia) o multiplicadores de frecuencia con el propósito de cambiar sus características o extraer cualquier información deseada. En tal caso, decimos que la señal fue procesada directamente en forma analógica, como se ilustra en la Fig Tanto la señal de entrada como la de salida están en forma analógica. El procesamiento digital de señales proporciona un método alternativo para procesar una señal analógica, como se ilustra en la figura 1.3. Para realizar el procesamiento digitalmente, se necesita una interfaz entre la señal analógica y el procesador digital. Esta interfaz se denomina conversor analógico-digital (A/D). La salida del conversor A/D es una señal adecuada como entrada al procesador digital. En aplicaciones donde la salida digital del procesador digital de señales se ha de entregar en forma analógica, como en comunicaciones digitales, debemos proporcionar otra interfaz desde el dominio digital al analógico. Esta interfaz se denomina conversor digital-analógica (D/A). Clasificación de las señales Los métodos que usamos en el procesamiento de una señal o en el análisis de la respuesta de un sistema a una señal dependen fuertemente de las características de la señal en particular. Existen técnicas que se aplican solo a familias específicas de señales. En consecuencia, cualquier investigación en procesamiento de señales debe comenzar con la clasificación de las señales que se encuentran en la aplicación concreta. Señales multicanal y multidimensionales. Una señal se describe mediante una función de una o más variables independientes. El valor de la función (es decir, de la variable dependiente) puede ser un escalar real, una cantidad compleja o quizás un vector. En algunas aplicaciones, las señales son generadas por múltiples fuentes o sensores. Estas señales pueden representarse en forma vectorial. Nos referiremos a un vector de señales como señal multicanal. Por ejemplo, en electrocardiografía se usan electrocardiogramas (ECG) de 3 y 12 tomas que dan lugar a señales de 3 y 12 canales. Si la señal es función de una única variable

4 4 independiente, la señal se denomina unidimensional. Una señal se denomina M-dimensional si es función de M variables independientes. Señales en tiempo continuo vs. señales en tiempo discreto. Las señales se pueden clasificar en cuatro categorías diferentes dependiendo de las características de la variable (independiente) tiempo y de los valores que esta puede tomar. Las señales en tiempo continuo o señales analógicas están definidas para todos los valores del tiempo y pueden tomar cualquier valor en el intervalo continuo (a,b), donde a puede ser - y b puede ser. La onda de voz y la señal x 1 (t) = cosπt, - < t < son ejemplos de señales analógicas. Las señales en tiempo discreto están definidas solo para ciertos valores del tiempo. Estos instantes del tiempo no necesitan ser equidistantes, aunque en la práctica se toman normalmente instantes equiespaciados conforme a intereses computacionales y matemáticos. Si usamos el índice n como la variable independiente que representa los instantes de tiempo, la señal pasa a ser una función de una variable entera (es decir, una secuencia de números). Por lo tanto, una señal en tiempo discreto se puede representar matemáticamente como una secuencia de números reales o complejos. Para destacar la naturaleza discreta de una señal se la suele denotar como x(n) o x[n] en vez de como x(t). Si los instantes de tiempo t n están equiespaciados (es decir, t n = nt), también se usa la notación x(nt) (T es el período de muestreo ). V. dependiente continua V. dependiente discreta Tiempo continuo Señal analógica Señal discreta en tiempo continuo Tiempo discreto Señal continua en tiempo discreto Señal digital En la práctica las señales en tiempo discreto pueden originarse de dos maneras: 1. Eligiendo valores de una señal analógica en determinados instantes de tiempo. Este proceso se denomina muestreo. Todos los aparatos de medida que proporcionan medidas en instantes de tiempo regulares generan señales en tiempo discreto. 2. Acumulando una variable a lo largo de un determinado periodo de tiempo. Señales continuas vs. señales discretas. El valor de una señal, en tiempo continuo o discreto, puede ser continuo o discreto. Si una señal toma todos los valores posibles en un intervalo tanto finito como infinito, se dice que es continua. Por el contrario, si toma valores de un conjunto finito de valores se dice que es discreta. Normalmente, estos valores son equidistantes y por tanto pueden expresarse como un múltiplo de la distancia entre dos valores sucesivos. Una señal en tiempo discreto, que toma valores en un conjunto discreto se denomina señal digital. Para que una señal pueda ser procesada digitalmente debe ser en tiempo discreto y tomar valores discretos (es decir, debe ser una señal digital). Si la señal a procesar es analógica, se convierte a digital muestreándola en el tiempo y obteniendo por tanto una señal en tiempo discreto y posteriormente cuantificando sus valores en un conjunto discreto. El

5 5 proceso de convertir una señal continua en discreta, denominado cuantificación, es básicamente un proceso de aproximación. Puede lograrse por redondeo o truncamiento. Señales deterministas vs. señales aleatorias. El análisis matemático y el procesamiento de señales requieren que la señal sea descrita matemáticamente. Esta descripción matemática, normalmente denominada modelo matemático, conduce a otra importante clasificación de las señales. Cualquier señal que pueda ser definida por una forma matemática explícita, un conjunto de datos o una regla bien definida se denomina determinista. Este término se usa para resaltar el hecho de que valores de la señal tanto presentes como pasados o futuros, se conocen exactamente, sin incertidumbre. En muchas situaciones prácticas, sin embargo, existen señales que no se pueden describir con un grado de precisión razonable mediante fórmulas matemáticas explícitas o cuya descripción es demasiado complicada para ser de utilidad práctica. La falta de tal relación supone que dichas señales evolucionan con el tiempo de forma impredecible. Nos referiremos a estas señales como señales aleatorias. La señal de la voz es un ejemplo de señal aleatoria. El análisis y descripción de las señales aleatorias se hace mediante técnicas estadísticas en vez de mediante fórmulas explícitas. El marco matemático para el análisis de señales aleatorias lo constituye la teoría de la probabilidad y los procesos estocásticos. La clasificación de una señal real como determinista o aleatoria no está siempre clara. Algunas veces ambas aproximaciones dan lugar a resultados significativos que ayudan a clarificar el comportamiento de la señal. Otras veces, una clasificación errónea puede dar lugar a resultados erróneos, dado que algunas herramientas matemáticas se aplican solo a señales deterministas y otras a señales aleatorias Señales y sistemas digitales De la física sabemos que la frecuencia está íntimamente relacionada con un tipo específico de movimiento periódico llamado oscilación armónica, que se describe mediante funciones sinusoidales. El concepto de frecuencia está directamente relacionado con el de tiempo. De hecho, sus dimensiones son las inversas del tiempo. Por tanto, de acuerdo con esto, deberíamos esperar que la naturaleza del tiempo (continuo o discreto) afecte a la frecuencia. Señales sinusoidales en tiempo continuo Una simple oscilación armónica se describe matemáticamente mediante la siguiente señal en tiempo continuo: (4) x a (t) = A cos(ωt + θ), - < t < que se muestra en la figura Figura 1.10 Ejemplo de una señal sinusoidal analógica.

6 6 El subíndice a usado con x(t) denota una señal analógica. Esta señal está completamente caracterizada por tres parámetros: A es la amplitud de la sinusoide, Ω es la frecuencia en radianes por segundo (rad/s) y θ es la fase en radianes. En lugar de Ω, a menudo se utiliza la frecuencia F ciclos por segundo o Hertzios (Hz), donde (5) Ω = 2πF La ecuación (4) puede escribirse en términos de F como (6) x a (t) = A cos(2πf t + θ), - < t < La señal analógica sinusoidal (6) está caracterizada por las siguientes propiedades: A1. Para todo valor fijo de la frecuencia F, x a (t) es periódica. Puede demostrarse fácilmente usando trigonometría elemental que x a (t + Tp) = x a (t) donde Tp= 1/F es el periodo fundamental de la señal sinusoidal. A2. Las señales en tiempo continuo con frecuencias diferentes son diferentes. A3. El aumento en la frecuencia F resulta en un aumento en la tasa de oscilación de la señal, en el sentido de que se incluyen más periodos en un intervalo de tiempo dado. Para F = 0, el valor Tp = es consistente con la relación fundamental F = 1/Tp. Debido a la continuidad de la variable temporal t, podemos aumentar la frecuencia F sin límite, con el consiguiente aumento en la tasa de oscilación. Las propiedades que hemos descrito para señales sinusoidales son aplicables a la clase de señales exponenciales complejas j(ωt + θ) (7) x a (t) = A e Señales sinusoidales en tiempo discreto Una señal sinusoidal en tiempo discreto puede expresarse como (8) x(n) = A cos(ωn + θ), - < n < donde n es una variable entera, denominada número de muestra, A es la amplitud de la sinusoide, ω es la frecuencia en radianes por muestra y θ es la fase en radianes. Si en lugar de ω utilizamos la variable de frecuencia f definida por (9) ω 2πf la relación (9) se convierte en (10) x(n) = A cos(2πf n + θ), - < n < La frecuencia f tiene dimensiones de ciclos por muestra. Cuando consideremos el muestreo de sinusoides analógicas, vamos a relacionar la variable de frecuencia f de una sinusoide en tiempo discreto con la frecuencia F en ciclos por segundo de la sinusoide analógica.

7 7 En contraste con las sinusoides en tiempo continuo, las sinusoides en tiempo discreto están caracterizadas por las propiedades siguientes: B1. Una sinusoide en tiempo discreto es periódica solo si su frecuencia f es un número racional. Por definición, una señal en tiempo discreto x(n) es periódica con período N (N > 0) si y solo si (11) x(n + N) = x(n) para todo n El valor más pequeño de N para el que se cumple (11) se denomina periodo fundamental. B2. Las sinusoides en tiempo discreto cuyas frecuencias están separadas por un múltiplo entero de 2π, son idénticas. Como resultado, todas las secuencias sinusoidales (12) x k (n) = A cos(ω k n + θ), k= 0, 1, 2... donde ω k = ω 0 + 2kπ -π ω 0 π son indistinguibles (esto es, idénticas). Por otro lado, las secuencias de dos sinusoides cualesquiera de frecuencias en el rango -π ω π o 1/2 f ½ son distintas. En consecuencia, las señales sinusoidales en tiempo discreto de frecuencias ω π o f ½ son únicas. Cualquier secuencia que resulte de una sinusoide con una frecuencia ω > π o f > ½ es idéntica a una secuencia obtenida a partir de una señal sinusoidal de frecuencia ω π. Debido a esta similitud, denominamos a la sinusoide que tiene la frecuencia ω > π un alias de la sinusoide correspondiente de frecuencia ω < π. Por esta razón consideramos las frecuencias en el rango -π ω π o 1/2 f ½ como únicas y todas las frecuencias ω > π o f > ½, como alias. B3. La mayor tasa de oscilación en una sinusoide en tiempo discreto se alcanza cuando ω = π (o ω = -π) o equivalentemente, f = ½ (o f = - ½). Véanse las características de la señal sinusoidal graficada en la figura Los valores de ω 0 = 0, π/8, π/4, π/2, π correspondientes a f = 0, 1/16, 1/8, ¼, ½ dan lugar a secuencias periódicas con periodos N =, 16, 8, 4,2. El periodo de la sinusoide disminuye a medida que la frecuencia aumenta. Podemos ver que la tasa de oscilación aumenta cuando lo hace la frecuencia.

8 8 Dado que las señales sinusoidales en tiempo discreto de frecuencias separadas por un múltiplo entero de 2π son idénticas, se deduce que las frecuencias en cualquier intervalo ω 1 ω ω 1 + 2π constituyen todas las sinusoides y exponenciales complejas en tiempo discreto existentes. Por lo tanto, el rango de frecuencias para sinusoides en tiempo discreto es finito con duración 2π. Habitualmente, se elige el rango 0 ω 2π o -π ω π (0 f 1, -1/2 f ½), que denominamos el rango fundamental. Exponenciales complejas relacionadas armónicamente Las señales sinusoidales y las exponenciales complejas son fundamentales en el análisis de señales y sistemas. En muchos casos se trabaja con conjuntos de exponenciales complejas (o sinusoides) armónicamente relacionadas. Estos son conjuntos de exponenciales complejas periódicas de frecuencias fundamentales que son múltiplos de una frecuencia positiva única. Aunque circunscribamos nuestra discusión a las exponenciales complejas, las mismas propiedades se verifican para las señales sinusoidales. Consideraremos exponenciales complejas armónicamente relacionadas tanto en tiempo continuo como discreto. Exponenciales en tiempo continuo Las señales básicas en tiempo continuo, las exponenciales armónicamente relacionadas, son (13) s k (t) = e jkω0t = e j2πkf0t k = 0, ±1, ±2 Para cada valor de k, s k (t) es periódica, con periodo fundamental 1/(kF 0 ) = Tp/k o frecuencia fundamental kf 0. Dado que una señal que es periódica con periodo Tp/k, es también periódica con periodo k(tp/k) = Tp para cualquier entero positivo k, tenemos que el conjunto de todas las s k (t) tienen periodo común Tp. Lo que es más, F 0 puede tomar cualquier valor y todos los miembros del conjunto son distintos en el sentido de que si k 1 k 2, entonces s k1 (t) s k2 (t). Partiendo de las señales fundamentales dadas en (13) podemos construir una combinación lineal de exponenciales complejas armónicamente relacionadas de la forma

9 9 (14) x a (t) = k = c k s k (t) = k = c k e jkω0t donde c k, k = 0, ±1, ±2,... son constantes complejas arbitrarias. La señal x a (t) es periódica con período fundamental Tp = 1/F 0, y su representación en términos de (14) se denomina expansión en serie de Fourier de x a (t). Las constantes complejas son los coeficientes de la serie de Fourier y la señal s k (t) se denomina el k-ésimo armónico de x a (t). Exponenciales en tiempo discreto Dado que las exponenciales complejas discretas en el tiempo son periódicas si su frecuencia relativa es un número racional, escogemos f 0 = 1/N y definimos los conjuntos de exponenciales complejas armónicas como (15) s k (n) = e j2πkf0n, k = 0, ±1, ±2,... A diferencia del caso de señales continuas en el tiempo, observamos que s k+n (n) = e j2πn(k+n)/n = e j2πn s k (n) = s k (n) Esto quiere decir que, en concordancia con (11), existen solo N exponenciales complejas periódicas distintas en el conjunto descrito (15). Además, todas las señales del conjunto tienen un periodo común de N muestras. Evidentemente, podemos escoger cualquier conjunto de N exponenciales complejas consecutivas, por ejemplo, k = n 0 hasta k = n 0 + N 1, para formar un conjunto armónicamente relacionado con frecuencia fundamental f 0 = 1/N. Normalmente, por conveniencia, elegimos el conjunto que se corresponde con n 0 = 0, es decir, el conjunto (16) s k (n) = e j2πkn/n, k = 0, 1, 2,, N 1 Como en el caso de señales en tiempo continuo, es evidente que la combinación lineal N (17) x(n)= 1 k = 0 N c k s k (n) = 1 k = 0 c k e j2πkn/n produce una señal de periodo fundamental N. Esta es la representación en serie de Fourier de una secuencia periódica en tiempo discreto con coeficientes de Fourier {c k }. La secuencia s k (n) se denomina el armónica k-ésima de x(n). Señales y sistemas en tiempo discreto La sinusoide es una señal elemental muy importante que sirve como bloque básico para la construcción de señales más complejas. Sin embargo, existen otras señales elementales que son importantes en nuestro tratamiento del procesamiento de señales. Hacemos especial hincapié en la caracterización de sistemas en tiempo discreto en general y en la clase de sistemas lineales e invariantes en el tiempo (LTI, linear time-invariant) en particular. Definimos y desarrollamos una serie de importantes propiedades de los sistemas LTI en el dominio del tiempo y se deduce una fórmula importante, denominada la fórmula de la convolución, que permite calcular la salida de un sistema LTI correspondiente a cualquier señal de entrada arbitraria. Además de la fórmula de la convolución, se utilizan ecuaciones en diferencias como un método alternativo para la descripción de la relación entrada-salida de un sistema LTI, Los LTI tienen realizaciones recursivas y no recursivas. Nuestra motivación para subrayar el estudio de sistemas LTI se apoya en dos razones. En primer lugar, existe una gran colección de técnicas matemáticas que pueden aplicarse al

10 10 análisis de sistemas LTI. En segundo lugar, muchos sistemas prácticos son LTI o pueden aproximarse mediante sistemas LTI. Señales en tiempo discreto Una señal en tiempo discreto x(n) es una función de una variable independiente entera. Es importante destacar que una señal en tiempo discreto no está definida para instantes entre dos muestras sucesivas. Igualmente, es incorrecto pensar que x(n) es igual a cero si n no es un entero. Simplemente, la señal x(n) no está definida para valore no enteros de n. En lo sucesivo supondremos que una señal en tiempo discreto se define para cada valor entero n para - < n <. Por tradición, nos referimos a x(n) como la enésima muestra de la señal aun cuando x(n) sea inherentemente en tiempo discreto (es decir, aunque no haya sido obtenida por muestreo de una señal analógica). En el caso en que x(n) haya sido obtenida al muestrear una señal analógica x a (t), entonces x(n) x a (nt), donde T es el periodo de muestreo (el tiempo entre muestras sucesivas). Además de la representación gráfica de una señal en tiempo discreto o secuencia, existen otras representaciones alternativas que a menudo son más convenientes. Estas son: 1. Representación funcional 2. Representación tabular 3. Representación como secuencia donde indica el origen del tiempo (n = 0). Muchas veces usaremos negrita en lugar de la flecha.

11 11 Clasificación de las señales en tiempo discreto Los métodos matemáticos empleados en el análisis de sistemas y señales en tiempo discreto dependen de las características de las señales. Realizamos una clasificación de las señales en tiempo discreto que atiende a diferentes características. Señales de energía y señales de potencia. La energía E de una señal x(n) se define como (18) E n= x(n) 2 Hemos considerado el módulo al cuadrado de x(n); por tanto, esta definición se aplica tanto a señales reales como a señales complejas. La energía de una señal puede ser finita o infinita. Si E es finita (es decir, 0 < E < ), entonces se dice que x(n) es una señal de energía. Algunas veces añadimos un subíndice x a E y escribimos E x para hacer hincapié en que E x es la energía de la señal x(n). Muchas señales que poseen energía infinita tienen potencia media finita. La potencia media de una señal discreta en el tiempo x(n) se define como (19) P = lim N 1 2N + 1 N n= N x(n) 2 Si definimos la energía de una señal sobre un intervalo finito N n N como (20) E N n = N N x(n) 2 Entonces podemos expresar la energía E de la señal como (21) E lim N E N y la potencia media de la señal x(n) como (22) P lim N 1 2N + 1 E N Claramente, si E es finita, P = 0. Por otra parte, si E es infinita, la potencia media P puede ser tanto finita como infinita. Si P es finita (y distinta de cero), la señal se denomina señal de potencia. Señales periódicas y señales aperiódicas. Como se definió más arriba, una señal x(n) es periódica con periodo N (N > 0) si y solo si (23) x(n + N) = x(n) para todo n El valor más pequeño de N para el que (23) se verifica se denomina periodo (fundamental). Si (23) no se verifica para ningún valor de N la señal se denomina aperiódica o no periódica. La energía de una señal periódica x(n) sobre un único periodo, por ejemplo sobre el intervalo 0 n N 1, es finita, si x(n) toma valores finitos en el periodo. Sin embargo, la energía de una señal periódica en el intervalo - n es infinita. La potencia media de una señal periódica es finita y es igual a la potencia media sobre un único periodo. En consecuencia, las señales periódicas son señales de potencia. Señales simétricas (pares) y antisimétricas (impares). Una señal real x(n) se denomina simétrica (par) si x(-n) = x(n). Una señal x(n) se denomina antisimétrica (impar) si x(-n) = -x(n).

12 12 Una señal arbitraria puede expresarse como la suma de dos componentes, una de las cuales es par y la otra impar. Manipulaciones simples de señales en tiempo discreto En esta sección consideraremos algunas modificaciones o manipulaciones simples en las que intervienen la variable independiente y la amplitud de la señal (variable dependiente). Transformación de la variable independiente (tiempo). Una señal x(n) puede ser desplazada en el tiempo reemplazando la variable independiente n por n k, donde k es un entero. Si k es un entero positivo, el desplazamiento temporal resulta en un retraso de la señal en k unidades de tiempo. Si k es un entero negativo, el desplazamiento temporal resulta en un adelanto de la señal en k unidades de tiempo. Otra modificación útil de la base temporal es reemplazar la variable independiente n por n. El resultado de esta operación es un pliegue o una reflexión de la señal con respecto al origen de tiempos n = 0.

13 Una tercera modificación de la variable independiente implica reemplazar n por µn, siendo µ un entero. Nos referimos a esta modificación de la base de tiempos como escalado temporal o submuestreo. 13

14 14 Suma, multiplicación y escalado de secuencias. La suma de dos señales x 1 (n) y x 2 (n) es una señal y(n) cuyo valor en cualquier instante es igual a la suma de los valores en ese instante de las dos señales de partida: y(n) = x 1 (n) + x 2 (n) - < n < El producto es: y(n) = x 1 (n) x 2 (n) - < n < El escalado de amplitud de una señal por una constante A se obtiene multiplicando el valor de cada muestra de la señal por A: y(n) = A x 1 (n) - < n < Sistemas en tiempo discreto En muchas aplicaciones del procesamiento de señales digitales es necesario diseñar dispositivos o algoritmos que realicen operaciones sobre señales en tiempo discreto. Estos dispositivos se denominan sistemas en tiempo discreto o simplemente sistemas discretos. En concreto, un sistema discreto es un dispositivo que opera sobre una excitación o señal de entrada en tiempo discreto según una regla preestablecida para generar otra señal en tiempo discreto denominada salida o respuesta del sistema. En general, consideraremos un sistema como una operación o conjunto de operaciones que se realizan sobre la señal de entrada x(n) para producir la señal de salida y(n). Diremos que la señal x(n) es transformada por el sistema en y(n), y expresaremos la relación general entre x(n) e y(n) como (24) y(n) Τ [x(n)]

15 15 donde el símbolo T denota la transformación (también llamada operador), o procesamiento realizado por el sistema sobre x(n) para producir y(n). Existen varias maneras de describir las características de un sistema y las operaciones que realiza sobre una señal x(n) para producir y(n). Acá nos ocuparemos de la caracterización en el dominio del tiempo de los sistemas. Comenzaremos con una descripción entradasalida del sistema. Esta se centra en el comportamiento a las puertas del sistema e ignora la realización interna. Más tarde nos introduciremos en la descripción del sistema mediante un espacio de estados. De esta manera desarrollaremos ecuaciones matemáticas que no solamente describen el comportamiento entrada-salida del sistema sino que especifican su estructura interna y comportamiento. Sea la señal de entrada: Veamos algunos sistemas: a) Sistema identidad: y(n) = x(n) b) Sistema que retrasa una muestra: y(n) = x(n 1) c) Sistema que adelanta una muestra: y(n) = x(n + 1) d) Sistema que promedia ternas de muestras de entrada: y(n) = 1/3 [x(n + 1) + x(n) + x(n 1)] e) Sistema acumulador: Se puede observar que para varios de los sistemas considerados la salida en el instante n = n 0 depende no solo de la entrada en el instante n = n 0 (o sea, x(n 0 )), sino también de los valores de la entrada aplicados al sistema antes y después de n = n 0. Clasificación de los sistemas discretos Tanto en el análisis como en el diseño de sistemas es conveniente realizar una clasificación de los mismos según las propiedades generales que satisfacen. De hecho, las técnicas matemáticas que desarrollaremos para analizar y diseñar sistemas en tiempo discreto dependen fuertemente de las características generales de los sistemas que se consideren. Por esta razón, es necesario desarrollar una serie de propiedades y categorías que puedan usarse para describir las características generales de los sistemas. Debemos destacar que para que un sistema disponga de una propiedad determinada, esta debe cumplirse para cada posible señal de entrada al sistema. Si una propiedad se satisface para algunas señales de entrada pero no para otras, el sistema no posee dicha propiedad. En ese caso, un contraejemplo es suficiente para demostrar que un sistema no

16 16 posee una propiedad. Sin embargo, para demostrar que el sistema tiene alguna propiedad, debemos probar que esta propiedad se cumple para cualquier señal de entrada posible. Sistemas estáticos y sistemas dinámicos. Un sistema en tiempo discreto se denomina estático o sin memoria si su salida en cualquier instante n depende a lo sumo de la muestra de entrada en ese mismo instante, pero no de las muestras pasadas o futuras de la entrada. En cualquier otro caso, se dice que el sistema es dinámico o con memoria. Si la salida de un sistema en el instante n está determinada completamente por las muestras de entrada en el intervalo de n N a n (N > 0), se dice que el sistema tiene memoria de duración N. Si N = 0, el sistema es estático. Si 0 < N <, se dice que el sistema tiene memoria finita, mientras que si N =, se dice que el sistema tiene memoria infinita. Ejemplos: a) Sistema sin memoria: y(n) = ax(n) b) Sistema con memoria finita: y(n) = x(n) + 3x(n 1) c) Sistema con memoria infinita: y(n) = x(n k) Los sistemas estáticos o sin memoria se describen en general por ecuaciones de entradasalida de la forma y(n) = T[x(n),n] y no incluyen elementos de retardo (memoria). k =0 Sistemas invariantes en el tiempo y sistemas variantes en el tiempo. Podemos subdividir la clase general de sistemas en dos categorías amplias: sistemas invariantes en el tiempo y sistemas variantes en el tiempo. Un sistema se dice invariante en el tiempo si sus características de entrada salida no cambian con el tiempo. Para entender esto mejor, supóngase que tenemos un sistema T en reposo que, cuando se excita con una señal x(n), produce una señal de salida y(n). Entonces, podemos escribir (25) y(n) = T[x(n)] Supóngase ahora que esa misma entrada es retardada k unidades de tiempo para dar lugar a x(n k), y de nuevo se aplica al mismo sistema. Si las características del sistema no cambian con el tiempo, la salida del sistema en reposo será y(n k), es decir, la salida será la misma que la correspondiente a la entrada x(n), excepto en que estará retardada las mismas k unidades de tiempo que se retardó la entrada. Esto nos conduce a definir un sistema invariante en el tiempo o invariante ante desplazamientos de la siguiente manera: Teorema. Un sistema en reposo T es invariante en el tiempo o invariante a desplazamientos si y solo si Implica que x(n) T y(n) (26) x(n k) T y(n k) para toda señal de entrada x(n) y todo desplazamiento temporal k. Para determinar si un sistema dado es invariante en el tiempo, necesitamos realizar el test especificado en la definición precedente. Básicamente, excitamos el sistema con una secuencia de entrada arbitraria x(n) que produce una salida denotada por y(n). A continuación, retardamos la señal de entrada en la misma cantidad k y recalculamos la salida. En general, podemos escribir la salida como y(n,k) = T[x(n k)] Si ahora esta salida cumple y(n,k) = y(n k), para todos los valores posibles de k, el sistema es invariante en el tiempo. En cambio si la salida cumple y(n,k) y(n k), aun para un solo valor de k, el sistema es variante en el tiempo.

17 17 Sistemas lineales y sistemas no lineales. Los sistemas en general pueden subdividirse en lineales y no lineales. Un sistema lineal es aquel que satisface el principio de superposición. De forma sencilla podemos decir que el principio de superposición exige que la respuesta del sistema a una suma ponderada de señales sea igual a la correspondiente suma ponderada de las salidas a cada una de las señales de entrada. Por tanto, tenemos la siguiente definición de linealidad. Teorema. Un sistema es lineal si y solo si (27) T[a 1 x 1 (n) + a 2 x 2 (n)] = a 1 T[x 1 (n)] + a 2 T[x 2 (n)] Para cualesquiera secuencias arbitrarias de entrada x 1 (n) y x 2 (n), y cualesquiera constantes arbitrarias a 1 y a 2. El principio de superposición expresado por la relación (27) se puede separar en dos partes. Primera, supongamos que a 2 = 0. Entonces (27) se reduce a (28) T[a 1 x 1 (n)] = a 1 T[x 1 (n)] = a 1 y 1 (n) donde y 1 (n) = T[x 1 (n)] La relación (28) muestra la propiedad multiplicativa o de escalado de un sistema lineal. Esto es, si la respuesta del sistema a x i (n) es y 1 (n), la respuesta del sistema a a 1 x 1 (n) es simplemente a 1 y 1 (n). Por tanto, cualquier escalado de la entrada produce un escalado igual de la salida correspondiente. Segunda, supongamos que a 1 = a 2 = 1 en (27). Entonces (29) T[x 1 (n) + x 2 (n)] = T[x 1 (n)] + T[x 2 (n)] = y 1 (n) + y 2 (n)

18 18 Esta relación muestra la propiedad aditiva de un sistema lineal. Las propiedades aditiva y multiplicativa definen el principio de superposición tal y como se aplica a los sistemas lineales. La condición de linealidad expresada en (27) puede extenderse por inducción a cualquier número de señales. Sistemas causales y sistemas no causales. Un sistema es causal si la salida del sistema en cualquier instante n (es decir, y(n)) depende solo de las entradas presentes y pasadas (es decir, x(n), x(n 1), x(n 2),...) pero no de las futuras (es decir, x(n + 1), x(n + 2),...). En términos matemáticos, la salida de un sistema causal verifica una ecuación de la forma y(n) = F[x(n), x(n 1), x(n 2),...] donde F[ ] es una función arbitraria. Si un sistema no satisface esta definición se dice que es no causal. En un sistema de este tipo, la salida depende no solo de las entradas pasadas y presentes sino también de las futuras. En un sistema en tiempo real no se dispone de las entradas futuras de la señal y, por lo tanto, un sistema no causal no puede ser realizado físicamente (no puede ser implementado). Por otra parte, si la señal se graba de manera que el procesamiento no se realiza en tiempo real, es posible implementar sistemas no causales, ya que todos los valores de la señal se encuentran disponibles en el momento del procesamiento. Sistemas estables frente a sistemas inestables. La estabilidad es una propiedad muy importante que debe ser considerar en cualquier aplicación práctica de un sistema. Sistemas inestables presentan un comportamiento errático y extremo que es causa de desbordamiento del sistema en aplicaciones prácticas. Un sistema arbitrario en reposo se dice de entrada acotada-salida acotada (BIBO, bounded input-bounded output), si y solo si toda entrada acotada produce una salida acotada. Matemáticamente el acotamiento de las secuencias de entrada y salida, x(n) e y(n), se traduce en la existencia de un par de números finitos, digamos M x y M y, tales que x(n) M x < y y(n) M y <, para todo n. Si, para alguna entrada acotada x(n) la salida no está acotada (es infinita), el sistema se clasifica como inestable. Análisis de sistemas discretos lineales e invariantes en el tiempo Nos centraremos ahora en el análisis de los sistemas lineales e invariantes en el tiempo. En concreto demostraremos que dichos sistemas quedan caracterizados en el dominio del tiempo por su respuesta a un impulso unitario. Demostraremos también que cualquier secuencia de entrada puede considerarse como la suma ponderada de impulsos unitarios. Entonces, como consecuencia de las propiedades de linealidad e invarianza en el tiempo del sistema, la respuesta del sistema a cualquier secuencia de entrada podrá ser expresada en términos de la respuesta del sistema al impulso unitario. Se obtendrá además la fórmula general que relaciona la respuesta al impulso unitario con las señales de entrada y salida del sistema, conocida como convolución. Así seremos capaces de determinar la salida de un sistema lineal e invariante en el tiempo para cualquier señal de entrada. Técnicas para el análisis de sistemas lineales Existen dos métodos básicos para el análisis del comportamiento o respuesta de un sistema lineal a una determinada señal de entrada. Un método se basa en obtener la solución de la ecuación de entrada-salida del sistema que, en general, tiene la forma y(n) = F[y(n 1), y(n 2),..., y(n N), x(n), x(n 1),..., x(n M)] Donde F[.] representa cualquier función de las cantidades entre corchetes. En concreto, para sistemas LTI, veremos que la forma general de la relación de entrada-salida es (30) y(n) = - = N k 1 M a k y(n k) + = k 0 b k x(n k) donde {a k } y {b k } son parámetros constantes que especifican el sistema y son independientes de x(n) e y(n). La relación de entrada-salida dada en (30) se denomina ecuación en diferencias y representa una de las maneras de caracterizar el comportamiento de un sistema discreto LTI.

19 19 El segundo método para el análisis del comportamiento de un sistema lineal ante una determinada entrada se basa en descomponer dicha señal de entrada en señales elementales. Las señales elementales se escogen de manera que sea fácil determinar la respuesta del sistema a cada una de ellas. Entonces, usando la propiedad de linealidad del sistema, se suman las respuestas del sistema a cada una de las señales elementales para obtener la respuesta del sistema a la señal de entrada global. Este segundo método es el descrito en esta sección. Supongamos que la señal de entrada x(n) se expresa como la suma ponderada de señales elementales {x k (n)} (31) x(n) = k c k x k (n) donde los {c k } definen el conjunto de amplitudes (coeficientes de ponderación) de la descomposición de la señal x(n). Supongamos ahora que la respuesta del sistema a la señal elemental x k (n) es y k (n). Entonces (32) y k (n) T[x k (n)] suponiendo que el sistema está en reposo y que la respuesta a c k x k (n) es c k y k (n), como consecuencia de la propiedad de escalado de un sistema lineal. Finalmente, la respuesta total a la entrada x(n) es (33) y(n) = T[x(n)] = T [ k c k x k (n)] = k c k T [x k (n)] = k c k y k (n) En (33) se usa la propiedad aditiva de los sistemas lineales. Aunque a primera vista parece que la elección de las señales elementales es completamente arbitraria, en realidad dicha elección está fuertemente condicionada por la clase de señales de entrada que queramos considerar. Si no se considera ninguna restricción para las señales de entrada, entonces la descomposición de las mismas en una suma ponderada de impulsos unitarios desplazados (impulsos) es matemáticamente conveniente y completamente general. Por otra parte, si nos restringimos a ciertas subclases de señales de entrada entonces otros conjuntos de señales elementales pueden ser más convenientes, desde el punto de vista matemático, para determinar la señal de salida. Para la descomposición de la señal de entrada en una suma ponderada de impulsos unitarios, debemos determinar en primer lugar la respuesta del sistema a un impulso unitario y a continuación usar las propiedades de escalado y aditiva de un sistema lineal para determinar la fórmula de la señal a una entrada arbitraria. Descomposición de una señal discreta en impulsos. Supongamos que tenemos una señal arbitraria x(n) que queremos expresar como la suma de impulsos unitarios. Escogemos las señales elementales x k (n) como x k (n) = δ (n k) donde k representa el retraso del impulso unitario. Para poder manejar una señal arbitraria x(n) que puede tener infinitos valores, el conjunto de impulsos unitarios debe ser también infinito, para contener el número infinito de desplazamientos. Supongamos ahora que multiplicamos la secuencias x(n) y δ (n k). Dado que δ (n k) es cero en todos los puntos excepto en n = k, donde vale uno, el resultado de esta multiplicación es otra secuencia que vale cero en todos los puntos excepto en n = k donde vale x(k), como se ilustra en la figura 2.2. Por tanto, x(n) δ (n k) = x(k) δ (n k) es una secuencia que se anula en todos los puntos excepto en n = k, donde su valor es x(k). Si hiciésemos ahora la multiplicación de x(n) con δ (n m), donde m es otro desplazamiento (m

20 20 k), el resultado sería otra secuencia que es cero en todos los puntos excepto en n = m donde valdría x(m). De aquí x(n) δ (n m) = x(m) δ (n m) En otras palabras, cada multiplicación de la señal x(n) por un impulso unitario desplazada un cierto k, (es decir, δ (n k)), extrae de la secuencia x(n) el valor de dicha secuencia en el punto n = k en el que el impulso unitario vale uno, en concreto, x(k). En consecuencia, si repetimos esta multiplicación para todos los posibles desplazamientos, - < k <, y sumamos el resultado de todas estas multiplicaciones, obtendremos una señal igual a la secuencia original x(n), es decir, (34) x(n) = k = x(k) δ(n k) La parte derecha de la ecuación (34) es la sumatoria de un número infinito de impulsos unitarios δ(n k) que tienen una amplitud x(k). Así, la parte derecha de la ecuación (34) nos proporciona la descomposición de una señal arbitraria x(n) es una suma ponderada de impulsos unitarios desplazados. Respuesta de un sistema LTI a entradas arbitrarias: la convolución. Ahora que hemos expresado una señal de entrada arbitraria x(n) como la suma ponderada de impulsos, estamos preparados para determinar la respuesta de un sistema LTI en reposo a cualquier señal de entrada. Primero, denotaremos la respuesta del sistema y(n,k) a un impulso unitario en el instante n - k mediante el símbolo especial h(n,k), - < k <. Es decir, (35) y(n,k) h(n,k) = T[δ(n k)]

21 21 En (35) observamos que n es el índice temporal y k indica la posición del impulso o instante en que el impulso unitario es distinto de cero. Si el impulso a la entrada del sistema se escala una cierta cantidad c k x(k), la respuesta del sistema quedará escalada por la misma cantidad, esto es, (36) c k h(n,k) = x(k) h(n,k) Finalmente, si la entrada es la señal arbitraria x(n) expresada como la suma ponderada de impulsos (37) x(n) = k = x(k) δ(n k) entonces la respuesta del sistema es la correspondiente suma ponderada de respuestas a los impulsos, es decir, (38) y(n) = T[x(n)] = T [ k = x(k) δ(n k)] = k = x(k) T[δ(n k)] = k = x(k) h(n,k) Claramente (38) es consecuencia del principio de superposición de los sistemas lineales y se conoce como sumatoria de superposición. Destacamos que (38) es la respuesta de un sistema lineal a cualquier secuencia de entrada x(n). Esta expresión es una función tanto de x(n) como de las respuestas h(n,k) del sistema a los impulsos unitarios δ(n k) con - < k <. Para obtener (38) se hizo uso de la propiedad de linealidad del sistema pero no de la propiedad de invarianza en el tiempo. Por lo tanto, la expresión (38) es aplicable a cualquier sistema lineal en reposo (variante en el tiempo). Si además, el sistema es invariante en el tiempo, la fórmula (38) se simplifica considerablemente. De hecho, si la respuesta del sistema al impulso unitario δ(n) se denota h(n), esto es h(n) T[δ(n)] entonces, por la propiedad de invarianza en el tiempo, la respuesta del sistema al impulso unitario desplazado δ(n k) es h(n k) = T[δ(n k)] En consecuencia, la fórmula (38) se simplifica a (39) y(n) = k = x(k) h(n - k) Ahora queda claro que el sistema LTI en reposo queda totalmente caracterizado por la función h(n), es decir, su respuesta al impulso unitario δ(n). Por el contrario, la caracterización de la salida de un sistema lineal variante en el tiempo exige el conocimiento de infinitas funciones de respuesta a los impulsos unitarios desplazados, en concreto una por cada posible valor de desplazamiento, h(n,k). La fórmula (39) que da la respuesta y(n) del sistema LTI como función de la señal de entrada x(n) y de la respuesta impulsional h(n) se denomina convolución. Diremos que la entrada x(n) se convoluciona con la respuesta impulsional h(n) para producir la salida y(n). Sistemas con respuesta impulsional de duración finita e infinita Hasta este punto hemos caracterizado los sistemas lineales e invariantes en el tiempo por medio de su respuesta impulsional h(n). Es conveniente, sin embargo, subdividir los sistemas lineales invariantes en el tiempo en aquellos que tienen una repuesta impulsional de

22 22 duración finita (FIR, finite-duration impulse response) y los que tienen una respuesta impulsional de duración infinita (IIR, infinite-duration impulse response). Así, pues, un sistema FIR tiene una respuesta impulsional que es cero fuera de un determinado intervalo finito. Sin pérdida de generalidad, centraremos nuestra atención en sistemas causales FIR tales que h(n) = 0 n < 0 y n M La convolución para este tipo de sistemas se simplifica según M y(n) = 1 k = 0 h(k) x(n k) Esta expresión indica que la salida en cualquier instante n se obtiene como la suma ponderada de las siguientes muestras de la señal de entrada: x(n), x(n 1),...,x(n M + 1). En otras palabras, el sistema simplemente pondera, mediante los valores de la respuesta impulsional h(k), k = 0, 1,..., M 1, las M muestras más reciente de la señal de entrada y suma los M productos resultantes. El sistema se comporta como una ventana que solo permite ver las M muestras más recientes de la señal de entrada a la hora de calcular la salida. Desprecia todas las muestras anteriores, es decir, x(n M), x(n M 1),... Por tanto, decimos que un sistema FIR tiene una memoria finita de M muestras. Por el contrario, un sistema lineal invariante en el tiempo IIR tiene una respuesta impulsional de duración infinita. Su salida, según la fórmula de la convolución es y(n) = k =0 h(k) x(n k) donde se ha supuesto causalidad, aunque no es necesario. En este caso la salida del sistema consiste en la combinación lineal ponderada (por la respuesta impulsional h(k)) de las muestras de la señal de entrada, x(n), x(n-1), x(n-2),... Dado que esta suma ponderada contiene la muestra presente y todas las pasadas de la señal de entrada, decimos que el sistema tiene memoria infinita. Correlación de señales discretas. Una operación matemática muy parecida a la convolución es la correlación. Al igual que en el caso de la convolución, la correlación es una operación entre dos secuencias. Pero al contrario que la convolución, el objetivo de la correlación es medir el parecido que existe entre dos señales, y así extraer información que dependerá de la aplicación concreta considerada. La correlación de señales es una operación que se realiza con frecuencia en distintas áreas de la ingeniería y la ciencia. En comunicaciones digitales la información que se va a transmitir de un punto a otro se convierte a forma binaria, es decir, se transforma en una secuencia de unos y ceros que es transmitida hacia el receptor. Para transmitir un 0 podemos enviar una secuencia x 0 (n) para 0 n L 1, y para transmitir un 1 la secuencia x 1 (n) para 0 n L 1, donde L es un entero que indica el número de muestras en cada una de las dos secuencias. Muy a menudo, se selecciona x 1 (n) como el valor negativo de x 0 (n). La señal recibida por el receptor se puede representar como y(n) = x i (n) + w(n) i = 0, 1 0 n L 1 donde ahora lo que hay que determinar es si es x 0 (n) o x 1 (n) la señal contenida en y(n), y w(n) representa el ruido aditivo y otras interferencias propias de cualquier sistema de comunicación. Otra vez, parte del ruido tiene su origen en los distintos componentes del receptor. En cualquier caso, el receptor conoce las dos posibles secuencias transmitidas x 0 (n) y x 1 (n) y su tarea consiste en compararlas con la señal recibida y(n) para determinar cuál de las dos se parece más a esta. Esta comparación se realiza mediante la correlación. Supóngase que tenemos dos secuencias reales x(n) e y(n), ambas de energía finita. La correlación cruzada de las secuencias x(n) e y(n) es la secuencia r xy (l), que se define como

23 23 (40) r xy (l) = x(n) y(n l) l = 0, ± 1, ± 2,... n= o equivalentemente, como r xy (l) = n= x(n + l) y(n) l = 0, ± 1, ± 2,... El índice l es el parámetro de desplazamiento o retardo en el tiempo y los subíndices xy de la secuencia de autocorrelación r xy (l) indican las señales que han sido correlacionadas. El orden de los subíndices, con x precediendo a y indica la dirección en que una secuencia es desplazada con respecto a la otra. Es decir, la secuencia x(n) no se desplaza y la secuencia y(n) se desplaza l muestras hacia la derecha si l es positivo y l muestras hacia la izquierda si l es negativo. Las similitudes entre el cálculo de la correlación cruzada y la convolución de dos secuencias son evidentes. En el cálculo de la convolución, una de las señales se refleja, se desplaza y entonces se multiplica por la otra secuencia; finalmente se suman todos los valores de la secuencia producto. Con excepción de la operación de reflexión, el cálculo de la correlación cruzada supone exactamente las mismas operaciones: desplazamiento de una de las secuencias, multiplicación de ambas y suma de todos los términos de la secuencia producto. En definitiva, si tenemos un programa para el cálculo de la convolución, podemos usarlo para obtener la correlación cruzada proporcionando como entrada x(n) y la secuencia reflejada y(- n). En el caso especial de que y(n) = x(n), tenemos la autocorrelación de x(n), que se define como la secuencia r xy (l) = n= x(n) x(n l) 5.2 Transformaciones continuas de la frecuencia La transformada de Fourier es una de las diferentes herramientas útiles en el análisis y diseño de sistemas LTI. Otras son las series de Fourier. Estas representaciones de señales implican básicamente la descomposición de las mismas en términos de componentes sinusoidales (o exponenciales complejas). Con esta descomposición, se dice que una señal está representada en el dominio de la frecuencia. La mayor parte de las señales de interés práctico se pueden descomponer en la suma de componentes sinusoidales. Para la clase de señales periódicas esta descomposición se denomina una serie de Fourier. Para la clase de señales de energía finita, la descomposición se denomina transformada de Fourier. Ambas descomposiciones son extremadamente importantes en el análisis de sistemas LTI porque la respuesta de un sistema LTI a una señal de entrada sinusoidal es una sinusoide de la misma frecuencia pero de diferente amplitud y fase. Además, la propiedad de linealidad de los sistemas LTI implica que la suma lineal de componentes sinusoidales a la entrada produce una suma similar de componentes sinusoidales a la salida, que difieren únicamente en las amplitudes y fases de las sinusoides de la entrada. Este comportamiento característico de los sistemas LTI hace que la descomposición sinusoidal de señales sea muy importante. Aunque son posibles muchas otras descomposiciones, solo la clase de señales sinusoidales (o exponenciales complejas) posee esta interesante propiedad al pasar a través de un sistema LTI. Análisis frecuencial de señales en tiempo continuo El análisis frecuencial de una señal conlleva la separación de la señal en sus componentes (sinusoidales) frecuenciales. Un ejemplo de análisis frecuencial es la utilización de un prisma para descomponer la luz solar en los colores del arco iris. Las formas de onda que nos interesa son básicamente funciones temporales. El papel del prisma es desempeñado por las herramientas de análisis de Fourier que desarrollaremos: las series de Fourier y la transformada de Fourier. La recombinación de los componentes sinusoidales para reconstruir la señal original es básicamente un problema de síntesis de Fourier. Si descomponemos una

24 24 forma de onda en sus componentes sinusoidales, de forma similar a como un prisma separa la luz blanca en sus diferentes colores, la suma de estas componentes sinusoidales resulta en la forma de onda original. Por otra parte, si alguna de estas componentes desaparece, el resultado es una señal diferente. El objetivo básico al desarrollar herramientas de análisis frecuencial es proporcionar una representación matemática y pictórica de las componentes frecuenciales contenidas en una cierta señal. Como en la Física, el término espectro se emplea al referirse al contenido en frecuencia de una señal. El proceso de obtención del espectro de una señal dada, usando las herramientas matemáticas básicas, se conoce como análisis frecuencial o espectral. A su vez, el proceso de determinación del espectro de una señal en la práctica, basado en mediciones reales de la señal, se denomina estimación espectral. Esta distinción es muy importante. En un problema práctico, la señal que está siendo analizada no conduce a una descripción matemática exacta. La señal puede ser portadora de cierta información que intentamos extraer. Si esta información que deseamos extraer se puede obtener directa o indirectamente a partir del contenido espectral de la señal, hacemos estimación espectral sobre la señal que porta la información y así obtenemos una estimación del espectro de la señal. Podemos ver la estimación espectral como un tipo de análisis espectral realizado sobre señales obtenidas de fuentes físicas (p. ej. voz, EEG, ECG, etc.). Los instrumentos o programas de software empleados para obtener estimaciones espectrales de tales señales se conocen como analizadores espectrales. Series de Fourier para señales periódicas en tiempo continuo Ejemplos de señales periódicas encontradas en la práctica son las ondas cuadradas, rectangulares, triangulares y, por supuesto, las sinusoides y exponenciales complejas. La representación matemática básica de las señales periódicas es la serie de Fourier, que es una suma ponderada de sinusoides relacionadas armónicamente. forma Una combinación lineal de exponenciales complejas armónicamente relacionadas de la (41) x(t) = k = c k e j2πkf0t es una señal periódica de periodo fundamental Tp = 1/F 0. Así pues, podemos considerar las señales exponenciales e j2πkf0t como los bloques básicos a partir de los cuales podemos construir señales periódicas de diferentes tipos mediante la elección adecuada de la frecuencia y de los coeficientes {c k }. F 0 determina el periodo fundamental de x(t) y los coeficientes {c k } especifican la forma de la onda. Una señal periódica tiene energía infinita y potencia media finita dada por (42)

25 25 A partir de (42) se puede establecer la relación (43) que se denomina relación de Parseval para señales de potencia. Para ilustrar el significado físico de (43), supongamos que x(t) es una exponencial compleja simple (44) x(t) = c k e j2πkf0t En este caso, todos los coeficientes de la serie de Fourier excepto c k son cero. En consecuencia, la potencia media de la señal es P x = c k 2 Es obvio que c k 2 representa la potencia del armónico k-ésimo de la señal. Así, pues, la potencia media total de la señal periódica es la suma de las potencias medias de sus armónicos. Si dibujamos c k 2 en función de las frecuencias kf 0, k = 0, ±1, ±2,..., el diagrama que obtenemos muestra cómo se reparte la potencia de la señal periódica entre sus distintas componentes en frecuencia. Este diagrama, que se muestra en la fig. 4.2, se denomina densidad espectral de potencia (también espectro de la densidad de potencia o siplemente espectro de potencia) de la señal periódica x(t). Dado que la potencia de una señal periódica existe solo para determinados valores discretos de frecuencia (es decir, F = 0, ±F 0, ±2F 0,...), se dice que la señal tiene un espectro formado por líneas. El espaciado entre dos líneas espectrales consecutivas es igual al inverso del periodo fundamental Tp, mientras que la forma del espectro (es decir, la distribución de potencia de la señal), depende de las características de la señal en el dominio del tiempo. Ejemplo. Determinar la serie de Fourier y la densidad espectral de potencia del tren de pulsos rectangulares de la fig. 4.3.

26 26 La señal es periódica con periodo fundamental Tp. Podemos representar la señal con la serie de Fourier definida antes y con los coeficientes de Fourier ya especificados. Como x(t) es una señal par, es conveniente seleccionar el intervalo de integración de Tp/2 a Tp/2. c 0 es entonces (45) El término c 0 representa el valor medio (componente de continua) de la señal x(t). Para k 0 tenemos (46) El término de la derecha en (46) es de la forma (sen φ)/φ, con φ = πkf 0 τ. En este caso φ toma valores discretos ya que F 0 y τ son fijos y el índice k varía. Si embargo, si representamos (sen φ)/φ con φ un parámetro continuo en el rango - < φ <, obtenemos el gráfico de la figura 4.4. Observamos que esta función decae hasta cero cuando φ ±, tiene un máximo de valor unidad en φ = 0, y es cero para múltiplos de π. Está claro que los coeficientes de Fourier dados por (46) son las muestras de la función (sen φ)/φ para φ = πkf 0 τ y están escaladas en amplitud por Aτ/Tp. Cuando la función periódica x(t) es par, los coeficientes de Fourier c k son reales. Por lo tanto, el espectro de fase, o bien es cero, cuando c k es positivo, o π cuando c k es negativo. En lugar de representar la magnitud y la fase por separado, podemos simplemente representar {c k }

27 27 en una única gráfica, en la que se muestran los valores positivos y negativos de c k. Esta es práctica habitual cuando los coeficientes de Fourier {c k } son reales. La figura 4.5 ilustra los coeficientes de Fourier del tren de pulsos rectangulares cuando Tp es fijo y la anchura del pulso τ varía. En este caso Tp = 0.25 segundos, de modo que F 0 = 1/Tp = 4 Hz y τ = 0.05Tp, τ = 0.1Tp, y τ = 0.2Tp. Observamos que el efecto de disminuir τ manteniendo fijo Tp es dispersar la potencia de la señal sobre el rango de frecuencias. El espaciado entre líneas espectrales adyacentes es F 0 = 4 Hz, independiente del valor de la anchura del pulso τ. Por otro lado, también es instructivo fijar τ y variar el periodo Tp cuando Tp > τ. La figura 4.6 ilustra esta condición cuando Tp = 5τ, Tp = 10τ, y Tp = 20τ. En este caso el espaciado entre líneas espectrales adyacentes decrece a medida que Tp aumenta. En el límite cuando Tp, los coeficientes de Fourier c k tienden a cero debido al factor de Tp en el denominador de (46). Este comportamiento es consistente con que si Tp y τ permanece fijo, la señal resultante ya no es una señal de potencia. En su lugar, se convierte en una señal de energía y su potencia media es cero. Si k 0 y sen(πkf 0 τ) = 0, entonces c k = 0. Los armónicos con potencia cero aparecen en frecuencias kf 0 tales que π(kf 0 )τ = mπ, m = ±1, ±2,..., o en kf 0 = m/τ: Por ejemplo, si F 0 = 4Hz y τ = 0.2Tp, se deduce que las componentes en ±20 Hz, ±40 Hz,... tienen potencia cero. Estas frecuencias corresponden a los coeficientes de Fourier c k, k = ±5, ±10, ±15,... Por otra parte, si τ = 0.1Tp, las componentes espectrales con potencia cero son k = ±10, ±20, ±30,...

28 28 Las series de Fourier representan una señal periódica como combinación lineal de exponenciales complejas armónicamente relacionadas. Como consecuencia de la periodicidad, estas señales tienen un espectro formado por líneas equidistantes. El espaciado entre líneas es igual a la frecuencia fundamental, que a su vez es la inversa del período fundamental de la señal. Se puede ver el periodo fundamental como el parámetro que determina el número de líneas por unidad de frecuencia (densidad de líneas) como se muestra en la figura 4.6. La transformada de Fourier para señales aperiódicas en tiempo continuo Como consecuencia de la periodicidad de las señales periódicas, estas poseen un espectro formado por líneas equidistantes. El espaciado entre líneas es igual a la frecuencia fundamental, que a su vez es la inversa del período fundamental de la señal. Podemos ver el período fundamental como el parámetro que determina el número de líneas por unidad de frecuencia (densidad de líneas), como se muestra en la figura 4.6. Con esta interpretación en mente, es evidente que si permitimos que el período aumente sin límite, el espaciado entre líneas tiende a cero. En el límite, cuando el periodo se hace infinito, la señal se hace aperiódica y su espectro es continuo. Este argumento sugiere que el espectro de una señal aperiódica será la envolvente del espectro formado por las líneas correspondientes a la señal periódica obtenida al repetir la señal aperiódica con algún periodo Tp.

29 29 Es evidente que la diferencia entre la serie de Fourier y la transformada de Fourier es que el espectro es continuo en el segundo caso y, por tanto, la síntesis de una señal aperiódica a partir de su espectro se lleva a cabo con una integración en lugar de una suma. Densidad espectral de energía de señales aperiódicas Sea x(t) una señal de energía finita con transformada de Fourier X(F). Su energía es La relación de Parseval para señales aperiódicas de energía finita es (47) y expresa el principio de conservación de la energía en los dominios del tiempo y la frecuencia. El espectro X(F) de una señal es, en general, complejo. En consecuencia, suele expresa en forma polar. Por otra parte, la cantidad (48) S xx (F) = X(F) 2 que es el integrando de (47), representa la distribución de energía de la señal en función de la frecuencia. De aquí que S xx (F) se denomine densidad espectral de energía de x(t). La integral de Sxx(F) sobre todas las frecuencias nos da la energía total de la señal. De otra forma, la energía de la señal x(t) sobre una banda de frecuencias F 1 F F 1 + F es En (48) vemos que Sxx(F) no contiene información sobre la fase, es decir, Sxx(F) es estrictamente real y no negativo. Dado que el espectro de fase de x(t) no se encuentra en Sxx(F) es imposible reconstruir la señal dada Sxx(F).

30 30

31 31 Análisis frecuencial de señales en tiempo discreto La representación en series de Fourier de una señal periódica en tiempo continuo puede tener infinitas componentes en frecuencia, donde la separación en frecuencia de dos componentes armónicas sucesivas es 1/Tp, y donde Tp es el periodo fundamental. Dado que el rango de frecuencias de señales en tiempo continuo se extiende desde - a, es posible tener señales con infinitas componentes en frecuencia. Por el contrario, el rango de frecuencias de señales en tiempo discreto se limita al intervalo (- π,π) o (0, 2π). Una señal en tiempo discreto de periodo fundamental N puede tener componentes en frecuencias separadas 2π/N radianes o f = 1/N ciclos. Consecuentemente, la representación en series de Fourier de señales periódicas en tiempo discreto contendrá como máximo N componentes de frecuencia. Esta es la diferencia fundamental entre la representación en series de Fourier de señales en tiempo continuo y señales en tiempo discreto. Ejemplos: Determinar el espectro de las señales: a) x(n) = cos 2 πn. Para ω 0 = 2 π tenemos f 0 = 1/ 2. Dado que f 0 no es un número racional, la señal no es periódica. En consecuencia, esta señal no puede expandirse en series de Fourier. De todas maneras, la señal posee un espectro. Su contenido espectral consta de una única componente de frecuencia en ω = ω 0 = 2 π. b) x(n) = cos πn/3 c) x(n) es periódica de periodo N = 4 y x(n)= {1, 1,0,0}

32 32 Densidad espectral de potencia de señales periódicas La potencia media de una señal periódica en tiempo discreto con periodo N es La siguiente es la expresión para P x en términos de los coeficientes de Fourier {c k }: (49) Así, la potencia media de la señal es la suma de las potencias medias de las componentes individuales en frecuencia. (49) es la relación de Parseval para señales periódicas en tiempo discreto. La secuencia c k 2 para k = 0,1,...,N 1 es la distribución de potencia en función de la frecuencia y se denomina densidad espectral de potencia de una señal periódica.

33 33 Transformada de Fourier de señales aperiódicas en tiempo discreto Como en el caso de señales aperiódicas en tiempo continuo, el análisis frecuencias de señales de energía finita aperiódicas en tiempo discreto implica una transformada de Fourier de la señal en el dominio del tiempo. La transformada de Fourier de una señal de energía finita en tiempo discreto x(n) se define como (47) X(ω) = n= x(n) e -jωn Físicamente X(ω) representa el contenido en frecuencia de x(n). En otras palabras, X(ω) es una descomposición de x(n) en sus componentes en frecuencia. Observamos dos diferencias básicas entre la transformada de Fourier de una señal de energía finita en tiempo discreto y la transformada de Fourier de una señal de energía finita analógica. Primero, para el caso de tiempo continuo, la transformada de Fourier, y por tanto, el espectro de la señal, tiene un rango en frecuencia que va desde - a - Por el contrario, el rango de frecuencias de una señal en tiempo discreto es (- π,π) o, equivalentemente (0, 2π). Esta propiedad se refleja en la transformada de Fourier de la señal. De hecho, X(ω) es periódica de período 2π. La segunda diferencia básica es también consecuencia de la naturaleza discreta de la señal. Dado que la señal es en tiempo discreto, la transformada de Fourier de la señal implica una sumatoria en lugar de una integral, como ocurre en el caso de señales de tiempo continuo. Dado que X(ω) es una función periódica de la variable frecuencia ω, puede expandirse en series de Fourier siempre y cuando se verifiquen las condiciones descritas anteriormente. De hecho, de la definición de la transformada de Fourier X(ω) de la secuencia x(n), dada en

34 34 (42), tenemos que X(ω) tiene la forma de una serie de Fourier. Los coeficientes de Fourier de esta serie son los valores de la secuencia x(n). Densidad espectral de energía de señales periódicas La siguiente es la relación de Parseval para señales aperiódicas de energía finita en tiempo discreto: El espectro X(ω) es, en general, una función compleja de la frecuencia. Como en el caso de señales en tiempo continuo, la cantidad S xx (ω) = X(ω) 2 representa la distribución de energía en función de la frecuencia y se denomina densidad espectral de energía de x(n). Claramente, S xx (ω) no contiene ninguna información de fase.

35 35 La transformada z Las técnicas de transformación constituyen una importante herramienta en el análisis de señales y sistemas lineales e invariantes en el tiempo (LTI). La transformada z representa el mismo papel en el análisis de señales y sistemas discretos LTI que la transformada de Laplace

36 36 en el análisis de señales y sistemas continuos LTI. Por ejemplo, veremos que en el dominio z (plano z complejo), la convolución de dos señales en el dominio del tiempo se corresponde con la multiplicación de sus transformadas z. Esta propiedad simplifica enormemente el análisis de la respuesta de un sistema LTI a diferentes señales. Además, la transformada z nos proporciona una manera de caracterizar sistemas LTI y sus respuestas a varias señales mediante la localización de sus polos y ceros. La transformada z de una señal discreta x(n) se define como la serie de potencias (48) X(z) x(n) z -n k = Donde z es una variable compleja. La relación (48) se denomina a veces transformada z directa porque transforma una señal en el dominio del tiempo x(n) en la señal compleja X(z). El procedimiento inverso, es decir, el que obtiene x(n) a partir de X(z), se denomina transformada z inversa. Por conveniencia, la transformada z de una señal x(n) se denota por (49) X(z) Z{x(n)} Mientras que la relación entre x(n) y X(z) se indica mediante x(n) z X(z) Dado que la transformada z es una serie infinita de potencias, existe solo para aquellos valores de z para los que la serie converge. La región de convergencia (ROC, region of convergence) de X(z) es el conjunto de todos los valores de z para los que X(z) es finita. Por lo tanto, siempre que hablemos de una transformada z debemos indicar también su ROC. Se ve fácilmente que la ROC de señales de duración finita es todo el plano z, excepto quizás z = 0 y/o z =. Estos puntos quedan excluidos porque z k (k > 0) no está acotada para z = y z --k (k > 0) no está acotada para z = 0. Por ejemplo, la transformada z de la señal x 1 (n) = {1,2,5,7,0,1} es X 1 (z) = 1 + 2z z z -3 + z -5, ROC: plano z completo excepto z = 0. La transformada de x 2 (n) = {1,2,5,7,0,1} es X 2 (z) = z 2 + 2z z -1 + z -3, ROC: plano z completo excepto z = 0 y z =. En esos ejemplos se ve que la ROC de señales de duración finita es todo el plano z, excepto quizás z = 0 y/o z =. Estos puntos quedan excluidos porque z k (k > 0) no está acotada para z = y z -k (k > 0) no está acotada para z = 0. Desde un punto de vista matemático, la transformada z es simplemente una forma alternativa de representar una señal. Esto queda ilustrado en los ejemplos anteriores donde vemos que el coeficiente de z -n, para una transformada determinada, es el valor de la señal en el instante n. En otras palabras, el exponente de z contiene la información que necesitamos para identificar las muestras de la señal. En muchos casos la suma, finita o infinita, correspondiente a una transformada z puede expresarse de forma compacta. En estos casos, la transformada z produce una representación alternativa y compacta de la señal.

37 37 A menudo, tenemos la transformada z de una señal y queremos determinar la señal. El procedimiento para transformar desde el dominio z al dominio del tiempo se denomina transformada z inversa. La fórmula para obtener x(n) a partir de X(z) se puede obtener usando el teorema integral de Cauchy, que es un teorema muy importante dentro de la teoría de variable compleja. La transformada z es una herramienta muy potente para el estudio de señales y sistemas discretos. La potencia de esta transformación es consecuencia de algunas propiedades muy importantes que tiene: linealidad, desplazamiento en el tiempo, escalado en el dominio z, convolución de dos secuencias, correlación de dos secuencias, multiplicación de dos secuencias, etcétera.

38 38

39 39 Una familia muy importante de transformada z es aquella en la que X(z) es una función racional, esto es, el cociente de dos polinomios en z -1 (o z) (todos los ejemplos de la tabla 3.3 son de este tipo). La función de transferencia de un sistema lineal invariante en el tiempo La salida de un sistema lineal invariante en el tiempo para una secuencia de entrada x(n) se puede obtener como la convolución de esa secuencia de entrada x(n) con la respuesta impulsional del sistema. La propiedad de la convolución, nos permite expresar esta relación en el dominio z como (50) Y(z) = H(z) X(z) Donde Y(z) es la transformada z de la secuencia de salida y(n), X(z) es la transformada z de la secuencia de entrada x(n) y H(z) es la transformada z de la respuesta impulsional h(n). Clasificación de señales en el dominio de la frecuencia: El concepto de ancho de banda Es interesante clasificar las señales, dependiendo de sus características en el dominio del tiempo, según sus características en el dominio de la frecuencia. Es práctica habitual clasificar las señales en términos relativamente amplios atendiendo a su contenido frecuencial. En particular, si una señal de potencia (o señal de energía) tiene una densidad espectral de potencia (o densidad espectral de energía) concentrada en torno a la frecuencia cero, se denomina señal de baja frecuencia. La Figura 4.25(a) ilustra las características espectrales de una señal de este tipo. En cambio, si la densidad espectral de potencia (o densidad espectral de energía) está concentrado en altas frecuencias, se dice que la señal es de alta frecuencia. Las características espectrales de este tipo de señal se representan en la Fig. 4.25(b). Una señal que tienen la densidad espectral de potencia (o densidad espectral de

40 40 energía) concentrada en alguna otra parte del rango de frecuencias situado entre las altas y las bajas, se denomina se denomina señal de frecuencias medias o señal paso banda. En la Fig. 4.25(c) se ilustra un espectro de este tipo. Además de esta clasificación relativamente amplia de las señales en el dominio de la frecuencia, es a menudo deseable expresar de forma cuantitativa el rango de frecuencias sobre el que se concentra la densidad espectral de potencia o energía. Esta medida cuantitativa se conoce como ancho de banda de una señal. Por ejemplo, supóngase que una señal en tiempo continuo tiene el 95% de su densidad espectral de potencia (o energía) concentrada en el rango de frecuencias F 1 F F 2. Entonces el ancho de banda del 95% de la señal es F 2 F 1. De una forma similar, se puede definir el ancho de banda del 75%, 90% o 99% de la señal. En el caso de una señal paso banda, el término banda estrecha se usa para describir aquella señal cuyo ancho de banda F 2 F 1 es mucho menor (digamos que por un factor de 10 o más) que la frecuencia central (F 2 + F 1 )/2. En caso contrario, la señal se dice de banda ancha. Diremos que una señal es de banda limitada si su espectro es cero fuera del rango de frecuencias F B. Por ejemplo, una señal en tiempo continuo de energía finita x(t) es de banda limitada si su transformada de Fourier cumple que X(F) = 0 para F > B. Una señal en tiempo discreto de energía finita x(n) se dice de banda limitada (periódicamente) si

41 41 X(ω) = 0 para ω 0 < ω < π De forma similar, una señal periódica en tiempo continuo x p (t) es limitada en banda periódicamente si sus coeficientes de Fourier son tales que c k = 0 para k < M, donde M es algún entero positivo. Una señal periódica en tiempo discreto con período fundamental N está limitada en banda periódicamente si sus coeficientes de Fourier cumplen que c k = 0 para k 0 < k < N. La figura 4.26 ilustra los cuatro tipos de señales de banda limitada. Utilizando la dualidad entre el dominio de la frecuencia y el del tiempo, se pueden dar formas similares para caracterizar las señales en el dominio temporal. En particular, una señal x(t) se denomina limitada en tiempo si x(t) = 0, t > τ. Si la señal es periódica con periodo Tp, se dirá limitada en tiempo periódicamente si xp(t) = 0 τ < t < Tp/2 Si tenemos una señal discreta x(n) de duración finita, esto es, x(n) = 0 n > N También se denomina limitada en tiempo. Cuando la señal es periódica con periodo fundamental N, se dice que es limitada en tiempo periódicamente si x(n) = 0 n 0 < n < N Ninguna señal puede ser limitada en tiempo y en banda simultáneamente, existiendo una relación recíproca entre la duración temporal y frecuencial de una señal. Por ejemplo, si tenemos un pulso rectangular de duración corta en el dominio temporal, su espectro tendrá una anchura inversamente proporcional a la duración del pulso en el dominio del tiempo. Cuanto más estrecho es el pulso en el dominio del tiempo, mayor es su ancho de banda. En consecuencia. El producto de la duración temporal y el ancho de banda de una señal no se puede hacer arbitrariamente pequeño. Una señal de corta duración tendrá un gran ancho de banda, y una señal de ancho de banda pequeño será de duración larga. Por tanto, para cualquier señal, el producto tiempo-ancho de banda es fijo y no se puede hacer arbitrariamente pequeño. Hacemos notar que discutimos métodos para el análisis de señales periódicas y aperiódicas de energía finita. Existe, no obstante, una familia de señales aperiódicas deterministas con potencia finita. Estas señales consisten en una superposición lineal de exponenciales complejas con frecuencias que no están relacionadas armónicamente, esto es,

42 42 donde ω 1, ω 2,..., ω M no están armónicamente relacionadas. Estas señales tienen espectros discretos pero las distancias entre las líneas no están armónicamente relacionadas. Las señales con espectros discretos no armónicos se denominan en ocasiones cuasi periódicas. Dualidades físicas y matemáticas Resumiendo, se presentaron las siguientes herramientas de análisis frecuencial: 1. Las series de Fourier para señales periódicas en tiempo continuo. 2. La transformada de Fourier de señales aperiódicas en tiempo continuo. 3. Las series de Fourier para señales periódicas en tiempo discreto. 4. La transformada de Fourier de señales aperiódicas en tiempo discreto. La siguiente figura resume las fórmulas de análisis y síntesis para este tipo de señales.

43 Resumen de las fórmulas de análisis y síntesis 43

44 44 Existen dos características en el dominio del tiempo que determinan el tipo de espectro que obtendremos. Estas son si el tiempo es discreto o continuo y si la señal es periódica o aperiódica. En resumen: Las señales en tiempo continuo tienen espectros aperiódicos. Un examen detallado de las fórmulas de análisis de las series de Fourier y de la transformada de Fourier para señales en tiempo continuo no revela la existencia de ningún tipo de periodicidad en el dominio del espectro. Esta falta de periodicidad es consecuencia de que la función exponencial exp(j2πft) sea una función de la variable continua t, y, por lo tanto, no periódica en F. Así, el rango de frecuencias de señales en tiempo continuo se extiende desde F = 0 hasta F =. Las señales en tiempo discreto tienen un espectro periódico. Tanto las series de Fourier como la transformada de Fourier de señales en tiempo discreto son periódicas de periodo ω = 2π. Como resultado de esta periodicidad, el rango de frecuencias de señales en tiempo discreto es finito y se extiende desde ω = -π hasta ω = π radianes, donde ω = π corresponde a la mayor oscilación posible. Las señales periódicas tienen espectros discretos. Las señales periódicas se describen mediante series de Fourier. Los coeficientes de la serie de Fourier representan las líneas del espectro discreto. El espaciado entre líneas F o f es igual al inverso del periodo Tp o N, respectivamente, en el dominio del tiempo. Esto es, F = 1/Tp para señales periódicas en tiempo continuo y f = 1/N para señales en tiempo discreto. Las señales aperiódicas de energía finita tienen espectros continuos. Esta propiedad es consecuencia directa del hecho de que tanto X(F) como X(ω) sean funciones de exp(j2πft) y exp(jωn), respectivamente, que son funciones continuas de las variables F y ω. La continuidad en frecuencia es necesaria para romper la armonía y originar las señales aperiódicas. En resumen, podemos concluir que periodicidad con periodo α en un dominio automáticamente implica discretización en el otro dominio con espaciado 1/α y viceversa. Si mantenemos que periodo en el dominio de la frecuencia indica el rango de frecuencias, espaciado en el dominio del tiempo es el periodo de muestreo T y, el espacio entre líneas en el dominio de la frecuencia es F, entonces α = Tp implica que 1/α = 1/Tp = F, α = N implica que f = 1/N, y α = Fs implica que T = 1/Fs. Estas dualidades tiempo-frecuencia se muestran en la figura anterior. Sin embargo, las gráficas de esta figura no se corresponden con ningún par de transformadas real. Por lo tanto, debe evitarse cualquier comparación entre ellas. Un análisis cuidadoso de la figura de más arriba revela la existencia también de algunas simetrías y dualidades matemáticas entre las distintas relaciones de análisis en frecuencia. En particular, se observa que existen dualidades entre las siguientes ecuaciones de análisis y síntesis: 1. Las ecuaciones de análisis y síntesis de la transformada de Fourier en tiempo continuo. 2. Las ecuaciones de análisis y síntesis de las series de Fourier en tiempo discreto. 3. La ecuación de análisis de la serie de Fourier en tiempo continuo y la ecuación de síntesis de la transformada de Fourier en tiempo discreto. 4. La ecuación de análisis de la transformada de Fourier en tiempo discreto y la ecuación de síntesis de la serie de Fourier en tiempo continuo. Obsérvese que todas las relaciones duales se diferencian únicamente en el signo de la exponencial compleja. Es interesante destacar que este cambio en el signo puede considerarse tanto un plegado en el tiempo como en la frecuencia, ya que Recordamos que utilizamos el término densidad espectral de energía para caracterizar señales aperiódicas de energía finita y el término densidad espectral de potencia para señales

45 45 periódicas. Esta terminología es consistente con el hecho de que las señales periódicas son señales de potencia y las señales aperiódicas de energía finita son señales de energía. Propiedades de la transformada de Fourier de señales en tiempo discreto La transformada de Fourier de señales aperiódicas de energía finita en tiempo discreto poseen varias propiedades que resultan muy útiles a la hora de reducir la complejidad del análisis frecuencial que surge en numerosos problemas prácticos. Propiedades similares se verifican para la transformada de Fourier de señales aperiódicas de energía finita en tiempo continuo. 5.3 Transformadas discretas de la frecuencia Para realizar el análisis frecuencial de una señal en tiempo discreto {x(n)}, convertimos la secuencia en el dominio del tiempo en una forma equivalente, en el dominio de la frecuencia. Sabemos que tal forma viene dada por la transformada de Fourier, X(ω), de la secuencia {x(n)}. Sin embargo, X(ω) es una función continua de la frecuencia y, por lo tanto, no es una forma computacionalmente conveniente de la secuencia {x(n)}. Consideraremos la representación de una secuencia {x(n)} mediante muestras de su espectro X(ω). Dicha representación en el dominio de la frecuencia nos lleva a la transformada

46 46 de Fourier discreta (DFT), que constituye una poderosa herramienta para el análisis frecuencias de señales en tiempo discreto. Muestreo en el dominio de la frecuencia: la transformada de Fourier discreta Las señales aperiódicas de energía finita tienen espectros continuos. Consideremos dicha señal aperiódica en tiempo discreto x(n), con frecuencia de Fourier (51) X(ω) = n= x(n) e -jωn Supongamos que muestreamos X(ω) periódicamente con un espaciado en frecuencia δω radianes entre muestras sucesivas. Dado que X(ω) es periódica de periodo 2π, solo necesitaremos las muestras del periodo fundamental. Por conveniencia, tomaremos N muestras equidistantes en el intervalo 0 ω 2π, espaciadas δω = 2π/N, como se muestra en la figura 5.1. La señal (52) obtenida repitiendo periódicamente x(n) cada N muestras es periódica de periodo fundamental N. Por tanto, puede desarrollarse en serie de Fourier como con coeficientes de Fourier Por lo tanto, (53)

47 47 Esta última relación nos proporciona la reconstrucción de la señal periódica x p (n) a partir de las muestras del espectro X(ω). Sin embargo, no implica que se puedan recuperar X(ω) o x(n) a partir de las muestras. Para conseguir esto necesitamos considerar la relación entre x p (n) y x(n). Dado que x p (n) es la extensión periódica de x(n) tal como se da en (51), está claro que x(n) puede ser recuperada a partir de x p (n), si no existe aliasing en el dominio del tiempo, es decir, si x(n) está limitada en tiempo a una duración menor que el periodo N de x p (n). Esta situación se muestra en la figura 5.2, donde, sin pérdida de generalidad, hemos considerado una secuencia de duración finita x(n), que es distinta de cero en el intervalo 0 n L 1. Observamos que cuando N L, x(n) = x p (n) 0 n N 1 De manera que x(n) puede recuperarse a partir de xp(n) sin ambigüedad. Por otra parte, si N < L, no es posible recuperar x(n) a partir de su extensión periódica debido al aliasing en el dominio del tiempo. Por tanto, concluimos que el espectro de una señal aperiódica en tiempo discreto de duración finita L, puede recuperarse exactamente a partir de sus muestras a las frecuencias ω k = 2πk/N, si N L. El procedimiento consiste en calcular x p (n), n = 0, 1,..., N 1 a partir de (53); después hacemos y, finalmente, calculamos X(ω) a partir de (51) Como en el caso de señales en tiempo continuo, es posible expresar el espectro X(ω) directamente en términos de sus muestras X(2πk/N), k = 0, 1,..., N 1. Para obtener la fórmula de interpolación para X(ω), suponemos que N L y, partiendo de (53) y puesto que x(n) = x p (n) para 0 n N 1, tenemos

48 48 (54) La transformada de Fourier discreta (DFT) En general, las muestras equiespaciadas en frecuencia X(2πk/N), k = 0, 1,..., N 1, no representan unívocamente a la secuencia original x(n) cuando x(n) tiene duración finita. Al contrario, las muestras en frecuencia X(2πk/N), k = 0, 1,..., N 1, se corresponden con una secuencia periódica x p (n) de periodo N, donde x p (n) es una versión con aliasing de x(n), esto es, Cuando la secuencia x(n) es de duración finita L N, entonces x p (n) es simplemente una repetición periódica de x(n), donde x p (n) en un único periodo viene dado por En consecuencia, las muestras en frecuencia X(2πk/N), k = 0, 1,..., N 1, representan de forma unívoca la secuencia de duración finita x(n). Dado que x(n) x p (n) en un solo periodo (rellenado con N L ceros), la secuencia de duración finita original x(n) puede obtenerse a partir de las muestras en frecuencia { X(2πk/N)} por medio de la fórmula (53). Obsérvese que rellenar con ceros no proporciona ninguna información adicional sobre el espectro X(ω) de la secuencia {x(n)}. Las L muestras equidistantes de X(ω) son suficientes para reconstruir X(ω) usando la fórmula de reconstrucción Sin embargo, al rellenar la secuencia {x(n)} con N L ceros y calcular la DFT de N puntos se obtiene una mejor representación gráfica de la transformada de Fourier X(ω). En resumen, una secuencia de duración finita x(n) de longitud L, es decir, x(n) = 0 para n < 0 y n L, tiene transformada de Fourier donde los índices superior e inferior de la sumatoria reflejan el hecho de que x(n) = 0 fuera del intervalo 0 n L 1. Cuando muestreamos X(ω) en frecuencias equiespaciadas ω k = 2πk/N, k = 0, 1,..., N 1, donde N L, las muestras resultantes son

49 49 (55) donde, por conveniencia, el índice superior de la sumatoria ha sido aumentada desde L 1 hasta N 1, dado que x(n) = 0 para n L. La relación (55) realiza la transformación de la secuencia {x(n)}, de longitud L N, en una secuencia de muestras en frecuencia {X(k)} de longitud N. Dado que las muestras en frecuencia se obtienen evaluando la transformada de Fourier X(ω) en un conjunto de N frecuencias discretas (igualmente espaciadas entre sí), la relación (55) se denomina transformada discreta de Fourier (DFT) de x(n). Por otra parte, la relación dada por (54), que nos permite recuperar la secuencia x(n) a partir de las muestras en frecuencia se denomina DFT inversa (IDFT). Claramente, cuando x(n) tiene longitud L < N, la IDFT de N puntos da x(n) = 0 para L n N 1. Resumiendo, las fórmulas para DFT y la IDFT son: Ejemplo. Una secuencia de duración finita de longitud L viene dada por La transformada de Fourier de esta secuencia es En la figura 5.5 se muestran la magnitud y la fase de X(ω) para L = 10. La DFT de N puntos de x(n) es simplemente X(ω), calculada en las N frecuencias equiespaciadas ωk = 2πk/N, k = 0, 1,..., N 1. De aquí

50 50 Si N se elige de manera que N = L, entonces la DFT se expresa como Por lo tanto, existe un único valor de la DFT distinto de cero. Esto resulta evidente al observar X(ω) = 0 a las frecuencias ω k = 2πk/L, k 0. x(n) se puede recuperar a partir de X(k) realizando una IDFT de L puntos. Aunque la DFT de L puntos es suficiente para representar de forma unívoca la secuencia x(n) en el dominio de la frecuencia, resulta evidente que no es suficiente para obtener una representación gráfica detallada de las características espectrales de x(n). Si deseamos obtener una representación gráfica mejor, debemos calcular (interloplar) X(ω) en frecuencias más próximas entre sí, digamos, en ω k = 2πk/L k = 2πk/N, donde N > L. Podemos interpretar esta operación como la expansión de la secuencia de L puntos a N puntos, añadiendo N L ceros a la secuencia x(n), es decir, rellenando con ceros. Por lo tanto, la DFT de N puntos proporciona una interpolación más fina que la DFT de L puntos. La figura 5.6 proporciona gráficas de la magnitud y fase de la DFT de N puntos para L = 10, N = 50 y N = 100. Así, las características espectrales de la señal están más claras, como se puede concluir comparando estos espectros con el espectro continuo X(ω).

51 51 Relación de la DFT con otras transformadas La DFT constituye una herramienta computacional importante para el análisis frecuencial de señales mediante procesadores de señal digital. Puesto que hemos desarrollado otras herramientas y transformadas para el análisis frecuencial, es importante establecer la relación entre estas otras transformadas y la DFT. Relación con los coeficientes de las series de Fourier de secuencias periódicas. Una secuencia periódica {x p (n)} de periodo fundamental N puede representarse mediante una serie de Fourier de la forma (56) donde los coeficientes de la serie de Fourier vienen dados por la expresión

52 52 (57) Si comparamos (56) y (57) con las fórmulas de DFT e IDFT, vemos que la fórmula para el cálculo de los coeficientes de la serie de Fourier tiene la forma de una DFT. De hecho, si definimos la secuencia x(n) = x p (n), 0 n N 1, la DFT de esta secuencia es simplemente X(k) = N c k. Además, (56) tiene la forma de una IDFT. Por lo tanto, la DFT de N puntos nos proporciona las líneas del espectro de la secuencia periódica de periodo fundamental N. Relación con la transformada de Fourier de secuencias aperiódicas. Si x(n) es una secuencia aperiódica de energía finita con transformada de Fourier X(ω) que se muestrea en las N frecuencias equiespaciadas ω k = 2πk/N, k = 0, 1,..., N 1, las componentes espectrales son los coeficientes de la DFT de una secuencia periódica de periodo N, dada por Por lo tanto, x p (n) queda determinada por el aliasing de {x(n)} en el intervalo 0 n N 1. La secuencia de duración finita carece de parecido con la señal original {x(n)}, a menos que x(n) sea de duración finita y longitud L N, en cuyo caso Solo en este caso la IDFT de {X(k)} dará como resultado la secuencia original {x(n)}. Relación con la transformada z. Consideremos la secuencia x(n) con transformada z con una ROC que incluye la circunferencia unidad. Si muestreamos X(z) en N puntos equiespaciados sobre la circunferencia unidad z k = e j2πk/n, 0, 1, 2,..., N 1, obtenemos (58)

53 53 La expresión (58) es idéntica a la transformada de Fourier X(ω) calculada en N frecuencias equiespaciadas ω k = 2πk/N, k = 0, 1,..., N 1. Si la secuencia x(n) es de longitud finita N o menos, podemos recuperarla a partir de su DFT de N puntos. De aquí que su transformada z quede unívocamente determinada por su DFT de N puntos. En consecuencia, X(z) se puede expresar como una función de la DFT {X(k)} como sigue (59) Cuando (59) se calcula sobre la circunferencia unidad, se obtiene la transformada de Fourier de la secuencia de duración finita, en términos de su DFT, en la forma (60) Esta expresión de la transformada de Fourier es una fórmula de interpolación polinómica (de Lagrange) para X(ω), expresada en términos de los valores {x(k)} del polinomio, en un conjunto de frecuencias equiespaciadas, ω k = 2πk/N, k = 0, 1,..., N 1. Tras ciertas manipulaciones algebraicas, es posible reducir (60) a la fórmula de interpolación dada anteriormente. Relación con los coeficientes de la serie de Fourier de una señal en tiempo continuo. Supongamos que x a (t) es una señal periódica en tiempo continuo de periodo fundamental Tp = 1/F 0. La señal puede desarrollarse en serie de Fourier (61) donde {c k } son los coeficientes de Fourier. Si muestreamos x a (t) con velocidad uniforme F s = N/Tp = 1/T, obtenemos la secuencia en tiempo discreto (62) Resulta evidente que (62) tiene la forma de la fórmula de la IDFT, donde

54 54 Por lo tanto, la secuencia es una versión con aliasing de {c k }. Análisis frecuencial de señales usando la DFT Para calcular el espectro, tanto de señales en tiempo continuo como de señales en tiempo discreto, se necesitan los valores de la señal para todos los instantes de tiempo. Sin embargo, en la práctica, las señales se observan solo durante un periodo de tiempo finito. En consecuencia, el espectro de la señal debe aproximarse a partir de un registro de datos finito. Examinaremos las consecuencias de disponer solo de registros de datos finitos en el análisis espectral por medio de la DFT. Si la señal que va a ser analizada es analógica, la pasaremos, en primer lugar, por un filtro antialiasing y, después, la muestrearemos a una velocidad F s 2B, donde B es el ancho de banda de la señal filtrada. Por lo tanto, la frecuencia más alta de la señal muestreada es F s /2. Finalmente, por razones prácticas, limitaremos la duración de la señal al intervalo de tiempo T 0 = LT, donde L es el número de muestras y T es el intervalo de muestreo. La limitación del intervalo de observación a una duración finita reduce la resolución en frecuencia; esto es, se reduce nuestra capacidad para distinguir entre dos componentes de frecuencia que estén separadas en frecuencia menos de 1/T 0 = 1/LT. Sea {x(n)} la secuencia a analizar. Limitar la duración de la secuencia a L muestras dentro del invervalo 0 n L 1, es equivalente a multiplicar {x(n)} por una ventana rectangular w(n) de longitud L. Esto es, donde Supongamos ahora que la secuencia x(n) consta de una sola sinusoide, esto es X(n) = cos ω 0 n Por tanto, la transformada de Fourier de la secuencia de duración finita x(n) puede expresarse como donde W(ω) es la transformada de Fourier de la secuencia ventana, que es (para la ventana rectangular)

55 55 Para calcular usamos la DFT. Rellenando con N L ceros la secuencia x^(n), podemos calcular la DFT de N puntos de la secuencia truncada (L puntos). El espectro de magnitud para ω k = 2πk/N, k = 0, 1,..., N, se muestra en la figura 5.12 para L = 25 y N = Observamos que el espectro de la ventana no se localiza en una sola frecuencia, sino que se extiende sobre todo el intervalo de frecuencias. Por lo tanto, la potencia de la señal original {x(n)} que estaba concentrada en una sola frecuencia se ha extendido, por la ventana, a todo el intervalo de frecuencias. Decimos que la potencia se ha derramado en todo el intervalo de frecuencias. En consecuencia, este fenómeno, que es característico del enventanado de la señal, se denomina derrame. El enventanado no solo distorsiona la estimación espectral debido al derrame, sino que también reduce la resolución espectral. Para reducir el derrame, podemos elegir una ventana que tenga lóbulos laterales en frecuencia más bajos que la ventana rectangular. Sin embargo, la reducción del nivel de los lóbulos secundarios de una ventana W(ω) se consigue a expensas de aumentar la anchura del lóbulo principal de W(ω) y, por tanto, de una pérdida de resolución. Para ilustrar este punto, consideremos la ventana de Hanning y una señal

56 56 La figura 5.14 representa para esta ventana. Sus lóbulos secundarios son significativamente inferiores a los de la ventana rectangular, pero su lóbulo principal es aproximadamente el doble.

57 57 En la figura 5.15 la reducción de los lóbulos secundarios y la pérdida de resolución con respecto a la ventana rectangular son evidentes. 5.4 Filtros digitales y ventanas El término filtro se utiliza comúnmente para describir un dispositivo que discrimina, según algún atributo de los objetos que se aplican a su entrada, aquello que pasa a través suyo. Vimos antes que un sistema lineal e invariante en el tiempo también realiza un tipo de discriminación o filtrado de las diferentes componentes en frecuencia de la entrada. La naturaleza de esta acción de filtrado viene determinada por las características de la respuesta en frecuencia H(ω), que a su vez depende de la elección de los parámetros del sistema. Eligiendo adecuadamente los coeficientes, podemos diseñar filtros selectivos en frecuencia que dejen pasar señales con componentes frecuenciales en ciertas bandas, al tiempo que atenúan señales que contengan componentes frecuenciales en otras bandas. En general, un sistema lineal e invariante en el tiempo modifica el espectro de la señal de entrada X(ω), según su respuesta en frecuencia H(ω), para dar lugar a una señal de salida con espectro Y(ω) = H(ω) X(ω). En cierto sentido, H(ω) actúa como función de ponderación o función de conformación espectral para las diferentes componentes frecuenciales de la señal de entrada. Visto en este contexto, cualquier sistema lineal e invariante en el tiempo puede considerarse como un filtro de conformación espectral, aunque no bloquee necesariamente ninguna componente en frecuencia. En consecuencia, los términos sistema lineal e invariante en el tiempo y filtro son sinónimos y, como tales, se intercambian habitualmente. Emplearemos el término filtro para describir el sistema lineal e invariante en el tiempo utilizado para realizar operaciones de conformación espectral o filtrado selectivo en frecuencia. El filtrado se emplea en el procesamiento digital de señales de diferentes maneras, por ejemplo, eliminación de ruido indeseado de señales deseadas, conformación espectral para igualación de canales de comunicaciones, detección de señales en radar, sonar y comunicaciones, análisis espectrales de señales, etc.

58 58 Características de los filtros ideales Los filtros se suelen clasificar según sus características en el dominio de la frecuencia como paso bajo, paso alto, paso banda y de banda eliminada. Las características ideales de la respuesta en magnitud de estos tipos de filtros se representan en la Fig Tal como se muestra, estos filtros ideales tienen ganancia constante (normalmente tomada como ganancia unitaria) en la banda de paso y ganancia cero en la banda eliminada. Otra característica de un filtro ideal es su respuesta de fase lineal, es decir, la salida del filtro es simplemente una versión retardada y escalada en amplitud de la señal de entrada. Como conclusión, los filtros ideales tienen una característica de magnitud constante y una característica de fase lineal dentro de su banda de paso. Además, estos filtros no son realizables, pero sirven como idealización matemática de los filtros prácticos. El filtro paso bajo ideal, por ejemplo, no es causal ni absolutamente sumable, por lo que es inestable. Sin embargo, su característica de respuesta en frecuencia se puede aproximar mucho con filtros prácticos y realizables físicamente.

59 59 La posición de los polos y los ceros afecta a la respuesta en frecuencia del sistema. Existe un método gráfico para calcular las características de la respuesta en frecuencia a partir del diagrama de polos y ceros, situando estos en el plano z. Este mismo procedimiento se puede emplear para diseñar algunos filtros digitales sencillos, pero importantes, con las características de la respuesta en frecuencia deseadas. El principio básico subyacente en el método de los polos y ceros es el de localizar los polos cerca de los puntos de la circunferencia unidad correspondientes a las frecuencias que desean ser acentuadas, y situar los ceros cerca de aquellos puntos que se corresponden con frecuencias que desean ser amortiguadas. Además, deben imponerse las siguientes condiciones: 1. Todos los polos deben estar en el interior de la circunferencia unida para que el filtro sea estable. Sin embargo, los ceros pueden situarse en cualquier punto del plano z. 2. Todos los ceros y polos complejos deben tener su conjugado correspondiente, de manera que los coeficientes del filtro sean reales. En el diseño de filtros digitales paso bajo, los polos deben situarse cerca de los puntos de la circunferencia unidad correspondientes a las bajas frecuencias (cerca de ω = 0) y los ceros deben situarse cerca de los puntos de la circunferencia unidad correspondientes a las altas frecuencias (cerca de ω = π). Lo contrario es lo necesario para filtros paso alto. Los filtros ideales son no causales y, por lo tanto, físicamente irrealizables para aplicaciones de procesamiento de señales en tiempo real. La causalidad implica que la característica de respuesta en frecuencia H(ω) del filtro no puede ser cero excepto en un conjunto finito de puntos en el rango de frecuencias. Además, H(ω) no puede tener un corte infinitamente abrupto desde la banda de paso a la banda de rechazo, es decir, H(ω) no puede caer desde uno hasta cero abruptamente.

60 60 Aunque las características de respuesta en frecuencia que poseen los filtros ideales deben ser deseables, no son absolutamente necesarias en la mayoría de las aplicaciones prácticas. Si relajamos estas condiciones es posible realizar filtros causales que aproximan los filtros ideales con tanta precisión como deseemos. En particular, no es necesario insistir que la magnitud H(ω) sea constante en toda la banda de paso del filtro. Se puede tolerar un pequeño rizado en la banda de paso como se ilustra en la figura 8.2. Similarmente no es necesario que la respuesta del filtro H(ω) sea cero en la banda de rechazo. También se puede tolerar un valor pequeño distinto de cero o un pequeño rizado en la banda de rechazo. La transición de la respuesta en frecuencia desde la banda de paso a la banda de rechazo define la banda de transición o región de transición del filtro, como se ilustra e la figura 8.2. La frecuencia ω p define el límite superior de la banda de paso, mientras que la frecuencia ω s define el principio de la banda de rechazo. Así, el ancho de la banda de transición es ω s ω p. El ancho de la banda de transición se denomina generalmente ancho de banda del filtro. Por ejemplo, si el filtro es paso bajo con una frecuencia de corte superior ω p, su ancho de banda es ω p. Si existe un rizado en la banda de paso del filtro, su valor se denota por δ 1, y la magnitud H(ω) varía entre los límites 1 ± δ 1. El rizado en la banda de rechazo del filtro se denota por δ 2. En cualquier problema de diseño de filtros podemos especificar: (1) el máximo rizado tolerable en la banda de paso, (2) el máximo rizado tolerable en la banda de rechazo, (3) la frecuencia de corte de la banda de paso ω p, y (4) la frecuencia de corte de la banda de rechazo ω s. 5.5 Procesamiento digital de señales analógicas Conversión analógico-digital y digital-analógica La mayoría de las señales de interés práctico, señales de voz, biológicas, sísmicas, radas, sonar y de distintos tipos de comunicación, como las señales de audio y video, son analógicas. Para procesar señales analógicas por medios digitales es necesario convertirlas a formato digital, esto es, transformarlas en una secuencia de números de precisión finita. Este procesamiento se denomina conversión analógico-digital (A/D) y los dispositivos correspondientes conversores A/D (ADCs).

61 61 Conceptualmente, podemos ver la conversión A/D como un proceso en tres pasos. Este proceso se ilustra en la figura Muestreo. Esta es la conversión de una señal en tiempo continuo a una señal en tiempo discreto obtenida tomando muestras de la señal en tiempo continuo en instantes de tiempo discreto. Así, si x a (t) es la entrada al muestreador, la salida es x a (nt) x(n), donde T se denomina el intervalo de muestreo. 2. Cuantificación. Esta es la conversión de una señal en tiempo discreto con valores continuos a una señal en tiempo discreto con valores discretos (señal digital). El valor de cada muestra de la señal se representa mediante un valor seleccionado de un conjunto finito de valores posibles. La diferencia entre la muestra sin cuantificar x(n) y la salida cuantificada x q (n) se denomina error de cuantificación. 3. Codificación. En el proceso de codificación, cada valor discreto x q (n) se representa mediante una secuencia binaria de b bits. Aunque modelamos el conversor A/D con un muestreador seguido de un cuantificador, en la práctica la conversión A/D se efectúa en un único dispositivo que toma x a (t) y produce un número codificado en binario. Las operaciones de muestreo y cuantificación pueden realizarse en cualquier orden, pero, en la práctica, el muestreo siempre tiene lugar antes de la cuantificación. En muchos casos de interés práctico (p. ej. procesamiento de voz) es deseable convertir las señales digitales procesadas a forma analógica. El proceso de conversión de una señal digital en una señal analógica se conoce como conversión digital-analógica (D/A). Todos los conversores D/A conectan los puntos de una señal digital efectuando cierto tipo de interpolación, cuya precisión depende de la calidad del proceso de conversión D/A. La figura 1.15 muestra una forma sencilla de conversión D/A, denominada mantenedor de orden cero o aproximación por escalones. También son posibles otras aproximaciones, como la que conecta linealmente dos puntos (interpolación lineal), la que ajusta una función cuadrática a tres muestras sucesivas (interpolación cuadrática), etc. Existe un interpolador óptimo (ideal)? Para señales que tienen contenido en frecuencia limitado (ancho de banda finito), el teorema de muestreo especifica la forma óptima de interpolación.

62 62 Demostraremos que el muestreo no da lugar a una pérdida de información ni introduce distorsión en la señal si su ancho de banda es finito. En principio, la señal analógica puede reconstruirse a partir de sus muestras, siempre que la tasa de muestreo sea lo suficientemente alta como para evitar el problema comúnmente denominado aliasing (solapamiento). Por otra parte, la cuantificación es un proceso no invertible o irreversible que resulta en la distorsión de la señal. Demostraremos que la cantidad de distorsión depende de la precisión, medida en función del número de bits del proceso de conversión A/D. Los factores que afectan a la elección de la precisión deseada del conversor A/D son el costo y la tasa de muestreo. En general, el costo aumenta con la precisión y/o la tasa de muestreo. Muestreo de señales analógicas Existen muchas maneras de muestrear una señal. Vamos a limitar nuestra discusión al muestreo periódico o uniforme, que es el tipo de muestreo usado más a menudo en la práctica. Este se describe mediante la relación (1.4.1) x(n) = x a (nt), - < n < Donde x(n) es la señal en tiempo discreto obtenida tomando muestras de la señal analógica x a (t) cada T segundos. Este proceso se ilustra en la Figura El intervalo de tiempo T entre dos muestras sucesivas se denomina período de muestreo o intervalo de muestreo y su recíproco 1/t = F s se llama velocidad de muestreo (muestras por segundo) o frecuencia de muestreo (hertzios).

63 63 El muestreo periódico establece una relación entre las variables t y n de tiempo continuo y tiempo discreto, respectivamente. De hecho, estas variables se relacionan linealmente a través del período de muestreo T o, equivalentemente, a través de la velocidad de muestreo F s = 1/T, como (1.4.2) t = nt = n/f s Como consecuencia de (1.4.2), existe una relación entre la variable frecuencia F (o Ω) de las señales analógicas y la variable frecuencia f (o ω) de las señales en tiempo discreto. Las variables frecuencia F y f están linealmente relacionadas según (1.4.5) f= F/F s o equivalentemente, según (1.4.6) ω = ΩT La relación dada en (1.4.5) justifica el nombre frecuencia normalizada o relativa, que se usa a veces para describir la variable frecuencia f. Como se ve en (1.4.5), podemos usar f para determinar la frecuencia F en hertzios solo si la frecuencia de muestreo F s es conocida. El rango de la variable frecuencia F o Ω para sinusoides en tiempo continuo es (1.4.7) - < F < - < Ω < Sin embargo, la situación es diferente para sinusoides en tiempo discreto. Tenemos que -1/2 < f < ½ - π < ω < π Se desprende que la diferencia fundamental entre señales en tiempo discreto y señales en tiempo continuo es el rango de valores de las variables frecuencia F y f o Ω y ω. El muestreo periódico de una señal en tiempo continuo supone una correspondencia entre un rango de frecuencia infinito correspondiente a la variable F (o Ω) y un rango de frecuencia finito correspondiente a la variable f (o ω). Dado que la frecuencia máxima de una señal en tiempo discreto es ω = π o f = ½, los valores máximos de F y Ω para una velocidad de muestreo F s son

64 64 (1.4.11) F max = F s /2 = 1/2T Ω max = πf s = π/t Por lo tanto, el muestreo introduce ambigüedad; así, la máxima frecuencia de una señal en tiempo continuo que puede determinarse unívocamente cuando dicha señal se muestra a una velocidad F s = 1/T es F max = F s /2 o Ω max = πf s. Para ver qué sucede con las frecuencias superiores a F s /2 consideremos el siguiente ejemplo. Ejemplo Las consecuencias de estas relaciones entre las frecuencias pueden observarse considerando las dos señales analógicas (1.4.12) x 1 (t) = cos 2π (10)t x 2 (t) = cos 2π (50)t que son muestreadas a una velocidad F s = 40 Hz. Las señales o secuencias en tiempo discreto correspondientes son (1.4.13) x 1 (n) = cos2π (10/40) n = cos π/2 n x 2 (n) = cos 2π (50/40) n = cos 5π/2 n Sin embargo, cos 5πn/2 = cos (2πn + πn/2) = cos πn/2. De aquí, x 2 (n) = x 1 (n). Las señales sinusoidales son, por lo tanto, idénticas y, en consecuencia, indistinguibles. Dados los valores de las muestras correspondientes a cos(π/2), no podemos determinar si proceden de x 1 (t) o de x 2 (t). Dado que x 2 (t) produce exactamente los mismos valores que x 1 (t) cuando ambas son muestreadas a F s = 40 muestras por segundo, decimos que la frecuencia F 2 = 50 Hz es un alias de la frecuencia F 1 = 10 Hz a la velocidad de muestreo de 40 muestras por segundo. Es importante observar que F 2 no es el único alias de F 1. De hecho, a una velocidad de muestreo de 40 muestras por segundo la frecuencia F 3 = 90 Hz también es un alias de F 1, así como la frecuencia F4 = 130 Hz, etc. Todas las sinusoides cos 2π (F k)t, k = 1,2, 3, 4,... muestreadas a 40 muestras por segundo producen valores idénticos. En consecuencia todas son alias de F 1 = 10 Hz. En general, el muestreo de una señal sinusoidal en tiempo continuo (1.4.14) x a (t) = A cos(2π F 0 t + θ) con una velocidad de muestreo Fs = 1/T produce una señal en tiempo discreto (1.4.15) x(n) = A cos(2πf 0 n + θ) donde f 0 = F 0 /F s es la frecuencia relativa de la sinusoide. Si suponemos que F s /2 F 0 F s /2, la frecuencia f 0 de x(n) se encuentra en el rango 1/2 f 0 ½, que es el rango de frecuencia para señales en tiempo discreto. En este caso, la relación entre F 0 y f 0 es biunívoca, y por tanto, es posible identificar (o reconstruir) la señal analógica x a (t) a partir de las muestras x(n). Por otra parte, si las sinusoides (1.4.16) x a (t) = A cos(2π F k t + θ) donde (1.4.17) F k = F 0 + kf s, k = ±1, ±2, se muestrean a una velocidad F s, está claro que la frecuencia F k se encuentra fuera del rango F s /2 F F s /2. En consecuencia. La señal muestreada es F 0 + kfs x(n) x a (nt) = A cos (2π n + θ) Fs = A cos(2πn F 0 /F s + θ + 2πkn) = A cos(2πf 0 n + θ)

65 65 que es idéntica a la señal en tiempo discreto dada en (1.4.15) y obtenida mediante muestreo (1.4.14). Por lo tanto, un número infinito de señales en tiempo continuo se representan mediante el mismo conjunto de muestras. En consecuencia, a partir de las muestras x(n) no es posible determinar qué señal en tiempo continuo x a (t) representan. De forma equivalente, podemos decir que las frecuencias F k = F 0 + kf s, - < k < (k entero) son indistinguibles de la frecuencia F 0 después del muestreo y, por tanto, son alias de F 0. La relación entre variables frecuencia de señales en tiempo continuo y tiempo discreto se ilustra en la figura La Fig muestra un ejemplo de aliasing: dos sinusoides de frecuencias F 0 = 1/8 Hz y F 1 = - 7/8 Hz producen muestras idénticas cuando se usa una velocidad de muestreo F s = 1 Hz. De (1.4.17) tenemos que, para k = -1, F 0 = F 1 + F s = (-7/8 +1) Hz = 1/8 Hz. Dado que F s /2, que se corresponde con ω = π, es la frecuencia más alta que puede ser representada inequívocamente con una velocidad de muestreo F s, es fácil determinar la correspondencia entre cualquier alias por encima de F s /2 (ω = π) y su frecuencia equivalente por debajo de F s /2. Podemos usar F s /2 o ω = π como el punto de plegado y reflejar o doblar la frecuencia alias en el rango F s /2 (ω = π). La frecuencia F s /2 (ω = π) se denomina frecuencia de plegado. Teorema de muestreo

66 66 Dada una señal analógica cualquiera, cómo se debe elegir el período de muestreo T o, lo que es lo mismo, la velocidad de muestreo F s? Para contestar a esta cuestión es necesaria cierta información sobre las características de la señal que va a ser muestreada. En particular, debemos tener cierta información general sobre el contenido frecuencial de la señal. Generalmente, dicha información se encuentra disponible. Por ejemplo, sabemos que la mayor frecuencia en señales de voz ronda los Hz. Por otra parte, las señales de televisión tienen componentes de frecuencia importantes hasta los 5 MHz. La información contenida en dichas señales se encuentra en las amplitudes, frecuencias y fases de las distintas componentes de frecuencia, pero antes de obtener dichas señales no conocemos sus características con detalle. De hecho, el propósito del procesamiento de señales es normalmente la extracción de dichas características. Sin embargo, si conocemos la máxima frecuencia de una determinada clase de señales (por ejemplo, señales de voz, de video, etc.) podemos especificar la velocidad de muestreo necesaria para convertir las señales analógicas en señales digitales. Supongamos que cualquier señal analógica se puede representar como una suma de sinusoides de diferentes amplitudes, frecuencias y fases, es decir, N (1.4.18) x a (t) = Ai cos(2πf i t + θ i ) i= 1 donde N indica el número de componentes de frecuencia. Todas las señales, como las de voz o video, se prestan a dicha representación en cualquier intervalo de tiempo pequeño. Normalmente, las amplitudes, fases y frecuencias varían lentamente de un intervalo de tiempo al siguiente. Supongamos que las frecuencias de una determinada señal no exceden una frecuencia máxima conocida F max. Por ejemplo, F max = 3 KHz, para señales de voz y F max = 5 MHz, para señales de video. Dado que la máxima frecuencia puede variar ligeramente (por ejemplo, de un orador a otro) podemos querer asegurar que F max no sobrepase determinado valor y para ello pasaremos la señal analógica por un filtro que atenúe fuertemente las componentes de frecuencia por encima de F max. Así estaremos seguros de que ninguna señal de la clase que nos interesa tendrá componentes de frecuencia (con amplitud o potencia significativa) por encima de F max. En la práctica, este filtrado se realiza antes del muestreo. El conocimiento de F max nos permite seleccionar la velocidad de muestreo apropiada. Sabemos que la frecuencia más alta de la señal analógica que puede reconstruirse sin ambigüedad cuando la señal se muestrea a una velocidad F s = 1/T es F s /2. Cualquier frecuencia por encima de F s /2 o por debajo de F s /2 produce muestras que son idénticas a las correspondientes a frecuencias dentro del intervalo F s /2 F F s /2. Para evitar las ambigüedades que resultan del aliasing, se debe seleccionar una velocidad de muestreo lo suficientemente alta, esto es, debemos escoger F s /2 mayor que F max. Por tanto, para evitar el problema del aliasing, se selecciona F s según (1.4.19) F s > 2 F max donde F max es la frecuencia más alta de la señal analógica. Con la velocidad de muestreo seleccionada de esta manera tenemos que cualquier componente de frecuencia, por ejemplo F i < F max, de la señal analógica se corresponde en tiempo discreto con una sinusoide de frecuencia (1.4.20) - ½ f i = F i /F s ½ o equivalentemente, (1.4.21) - π ω i = 2πf i π Dado que f = ½ o ω = π es la frecuencia más alta (única) en una señal en tiempo discreto, la elección de la velocidad de muestreo según (1.4.19) evita el problema del aliasing. En otras palabras, la condición F s > 2 F max garantiza que todas las componentes sinusoidales de la señal analógica se correspondan con componentes en frecuencia de tiempo discreto en el intervalo fundamental. Por lo tanto, todas las componentes en frecuencia de la señal analógica están representadas sin ambigüedad en la forma muestreada de la señal, y así la señal analógica

67 67 puede ser reconstruida sin distorsión a partir de las muestras usando un método de interpolación apropiado (conversión digital analógica). La fórmula de interpolación ideal o apropiada se especifica mediante el teorema del muestreo. Teorema del muestreo. Si la frecuencia más alta contenida en una señal analógica x a (t) es F max = B y la señal se muestrea a una velocidad F s < 2F max 2B, entonces x a (t) se puede recuperar totalmente a partir de sus muestras mediante la siguiente función de interpolación (1.4.22) g(t) = sen2πbt 2πBt La tasa de muestreo dada por F N = 2B = 2 F max se denomina tasa de Nyquist. La figura 1.19 ilustra el proceso de conversión D/A ideal que utiliza la función de interpolación dada por (1.4.22). Un punto importante es que aun cuando la forma de onda puede tener un espectro limitado en banda, la señal podría estar corrompida por ruido aleatorio de banda ancha, previo a la conversión analógica a digital. En tales casos, la señal más ruido debiera ser filtrada con un filtro analógico paso bajo que corta abruptamente por encima de la frecuencia de Nyquist, de modo que las imágenes de ruido de alta frecuencia no sean solapadas (aliased) en la banda de base. Cuantificación de señales de amplitud continua Una señal digital es una secuencia de números (muestras) en la que cada número se representa por un número finito de dígitos (precisión finita). El proceso de convertir una señal en tiempo discreto de amplitud continua en una señal digital, expresando cada muestra por medio de un número finito (en vez de infinito) de dígitos, se denomina cuantificación. El error cometido al representar la señal de valor continuo por un conjunto finito de valores discretos se denomina error de cuantificación o ruido de cuantificación. Denotaremos la operación de cuantificación de las muestras x(n) como Q[x(n)] y utilizaremos x q (n) para designar la secuencia de muestras cuantificadas a la salida del cuantificador. Así x q (n) = Q[x(n)] por tanto, el error de cuantificación de una secuencia e q (n) se define como la diferencia entre el valor cuantificado y el de la muestra original (1.4.25) e q (n) = x q (n) x(n) Supongamos que queremos utilizar un solo dígito significativo. Para eliminar los dígitos sobrantes podemos simplemente eliminarlos (truncamiento) o aproximar por el número con un dígito significativo más cercano (redondeo). Las señales cuantificadas resultantes x q (n) se muestran en la Tabla 1.2. Discutiremos solo la cuantificación por redondeo, aunque es igual de fácil considerar el caso de truncamiento. El proceso de redondeo se ilustra gráficamente en la Fig. 1.20b.

68 68 Los valores permitidos en la señal digital se denominan niveles de cuantificación, mientras que la distancia entre dos niveles de cuantificación sucesivos se denomina escalón de cuantificación o resolución. El cuantificador por redondeo asigna a cada muestra de x(n) el nivel de cuantificación más cercano. Por el contrario un cuantificador por truncamiento le asignaría el nivel inmediatamente por debajo de la muestra. El error de cuantificación en el caso de redondeo se encuentra en el intervalo [- /2 a /2], es decir (1.4.26) - s eq (n) s En otras palabras, el error de cuantificación instantáneo no puede superar la mitad del valor del escalón de cuantificación (ver Tabla 1.2). Si x min y x max representan los valores máximo y mínimo de x(n) y L es el número de niveles de cuantificación, entonces (1.4.27) = x max x min L 1 Definimos el rango dinámico de la señal como x max x min. En nuestro ejemplo x max = 1, x min = 0, y L = 11, lo que nos lleva a = 0.1. Obsérvese que si el rango dinámico está prefijado, el aumento del número de niveles conlleva la disminución del escalón de cuantificación. Por tanto, el error de cuantificación decrece y aumenta la precisión del cuantificador. En la práctica se puede reducir el error de cuantificación a niveles insignificantes, eligiendo un número suficiente de niveles de cuantificación.

1 Conceptos Básicos de Señales y Sistemas

1 Conceptos Básicos de Señales y Sistemas CAPÍTULO 1 Conceptos Básicos de Señales y Sistemas Cuando se hace referencia a los conceptos de señales y sistemas, su aplicación es válida para una variedad amplia de disciplinas, tales como sismología,

Más detalles

Introducción a la Teoría del Procesamiento Digital de Señales de Audio

Introducción a la Teoría del Procesamiento Digital de Señales de Audio Introducción a la Teoría del Procesamiento Digital de Señales de Audio Transformada de Fourier Resumen el análisis de Fourier es un conjunto de técnicas matemáticas basadas en descomponer una señal en

Más detalles

Conversión Analógica-a-Digital

Conversión Analógica-a-Digital Conversión Analógica-a-Digital OBJEIVOS: Comprender la conversión de señales analógicas a digitales, analizando las modificaciones que se producen con este proceso. Fundamentalmente, las "réplicas" en

Más detalles

Un filtro general de respuesta al impulso finita con n etapas, cada una con un retardo independiente d i y ganancia a i.

Un filtro general de respuesta al impulso finita con n etapas, cada una con un retardo independiente d i y ganancia a i. Filtros Digitales Un filtro general de respuesta al impulso finita con n etapas, cada una con un retardo independiente d i y ganancia a i. En electrónica, ciencias computacionales y matemáticas, un filtro

Más detalles

Análisis espectral de señales periódicas con FFT

Análisis espectral de señales periódicas con FFT Análisis espectral de señales periódicas con FFT 1 Contenido 7.1 Introducción a la Transformada Discreta de Fourier 3-3 7.2 Uso de la Transformada Discreta de Fourier 3-5 7.3 Método de uso de la FFT 3-8

Más detalles

TRANSFORMADA DE FOURIER. Transformada de Fourier (Parte 1) Página 1 INTRODUCCION

TRANSFORMADA DE FOURIER. Transformada de Fourier (Parte 1) Página 1 INTRODUCCION Transformada de Fourier (Parte 1) Página 1 INTRODUCCION En una primera aproximación, podemos decir que todos los dominios transformados, que se utilizan dentro del tratamiento digital de imagen, tienen

Más detalles

Máster Universitario en Ingeniería de Caminos, Canales y Puertos Introducción al Análisis Numérico

Máster Universitario en Ingeniería de Caminos, Canales y Puertos Introducción al Análisis Numérico Máster Universitario en Ingeniería de Caminos, Canales y Puertos Introducción al Análisis Numérico Departamento de Matemática Aplicada Universidad Granada Introducción El Cálculo o Análisis Numérico es

Más detalles

Conceptos de señales y sistemas

Conceptos de señales y sistemas Conceptos de señales y sistemas Marta Ruiz Costa-jussà Helenca Duxans Barrobés PID_00188064 CC-BY-NC-ND PID_00188064 Conceptos de señales y sistemas Los textos e imágenes publicados en esta obra están

Más detalles

Introducción a los Filtros Digitales. clase 10

Introducción a los Filtros Digitales. clase 10 Introducción a los Filtros Digitales clase 10 Temas Introducción a los filtros digitales Clasificación, Caracterización, Parámetros Filtros FIR (Respuesta al impulso finita) Filtros de media móvil, filtros

Más detalles

LABORATORIO DE SEÑALES Y SISTEMAS PRACTICA 1

LABORATORIO DE SEÑALES Y SISTEMAS PRACTICA 1 LABORATORIO DE SEÑALES Y SISTEMAS PRACTICA CURSO 005-006 PRÁCTICA SEÑALES Y SISTEMAS CONTINUOS Las presente practica trata distintos aspectos de las señales y los sistemas en tiempo continuo. Los diferentes

Más detalles

3. LA DFT Y FFT PARA EL ANÁLISIS FRECUENCIAL. Una de las herramientas más útiles para el análisis y diseño de sistemas LIT (lineales e

3. LA DFT Y FFT PARA EL ANÁLISIS FRECUENCIAL. Una de las herramientas más útiles para el análisis y diseño de sistemas LIT (lineales e 3. LA DFT Y FFT PARA EL AÁLISIS FRECUECIAL Una de las herramientas más útiles para el análisis y diseño de sistemas LIT (lineales e invariantes en el tiempo), es la transformada de Fourier. Esta representación

Más detalles

Esther Pueyo Paules Teoría (primavera) Despacho: D3.20 epueyo@unizar.es

Esther Pueyo Paules Teoría (primavera) Despacho: D3.20 epueyo@unizar.es Asignatura: 11943 SEÑALES Y SISTEMAS II Área: TEORÍA DE LA SEÑAL Y COMUNICACIONES Departamento: INGENIERÍA ELECTRÓNICA Y COMUNICACIONES Plan de estudios: INGENIERO EN TELECOMUNICACIÓN (Plan 94) Curso:

Más detalles

Fundamentos para la Representación y Análisis de Señales Mediante Series de Fourier

Fundamentos para la Representación y Análisis de Señales Mediante Series de Fourier Fundamentos para la Representación y Análisis de Señales Mediante Series de Fourier Andrés Felipe López Lopera* Resumen. Existe una gran similitud entre vectores y las señales. Propiedades tales como la

Más detalles

Página 1 de 16 TRANSFORMADA DE FOURIER Y EL ALGORITMO FFT INTRODUCCION

Página 1 de 16 TRANSFORMADA DE FOURIER Y EL ALGORITMO FFT INTRODUCCION Página 1 de 16 FCEFy Universidad acional de Cordoba ITRODUCCIO El estudio de las señales cotidianas en el dominio de la frecuencia nos proporciona un conocimiento de las características frecuenciales de

Más detalles

2.1 Sistemas discretos en tiempo. 2.1.1 Sistemas lineales. 2.1.2 Sistemas invariantes en tiempo

2.1 Sistemas discretos en tiempo. 2.1.1 Sistemas lineales. 2.1.2 Sistemas invariantes en tiempo 2.1 stemas discretos en tiempo Un sistema discreto en el tiempo se define matemáticamente como la transformación o el operador que traza una secuencia de entrada con valores x[n], en una secuencia de salida

Más detalles

Procesamiento Digital de Señales

Procesamiento Digital de Señales Instituto Tecnológico de Costa Rica Escuela de Ingeniería Electrónica Notas de clase Procesamiento Digital de Señales Dr. José Pablo Alvarado Moya Borrador de 0 de abril de 006 Prefacio Estas notas de

Más detalles

2.6. La integral de convolución

2.6. La integral de convolución 2.6. La integral de convolución 141 2.6. La integral de convolución La convolución entre dos funciones es un concepto físico importante en muchas ramas de la ciencia. Sin embargo, como sucede con muchas

Más detalles

Señales y Análisis de Fourier

Señales y Análisis de Fourier 2 Señales y Análisis de Fourier En esta práctica se pretende revisar parte de la materia del tema 2 de la asignatura desde la perspectiva de un entorno de cálculo numérico y simulación por ordenador. El

Más detalles

Complementos de matemáticas. Curso 2004-2005

Complementos de matemáticas. Curso 2004-2005 Univ. de Alcalá de Henares Ingeniería Técnica Industrial Complementos de matemáticas. Curso 004-005 Colección de ejercicios del tema 1 Las soluciones aparecen en color azul, y si disponéis de la posibilidad

Más detalles

Introducción a la Teoría del Procesamiento Digital de Señales de Audio

Introducción a la Teoría del Procesamiento Digital de Señales de Audio Introducción a la Teoría del Procesamiento Digital de Señales de Audio Transformada de Fourier Discreta Resumen Propiedades de la Transformada de Fourier Linealidad Comportamiento de la fase Naturaleza

Más detalles

Equipos analizadores de señal. - Introducción - Analizadores de Fourier - Analizadores de espectros heterodinos

Equipos analizadores de señal. - Introducción - Analizadores de Fourier - Analizadores de espectros heterodinos - Introducción - Analizadores de Fourier - Analizadores de espectros heterodinos Introducción El análisis del espectro de colores es una forma de análisis de componentes frecuenciales que para el caso

Más detalles

Análisis Estadístico de Datos Climáticos

Análisis Estadístico de Datos Climáticos Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 3 (Análisis espectral) 2015 Dominio temporal vs. dominio de frecuencias Son dos enfoques para encarar el análisis de las series temporales, aparentemente

Más detalles

7.- MODIFICACIÓN DE LA FRECUENCIA DE MUESTREO

7.- MODIFICACIÓN DE LA FRECUENCIA DE MUESTREO 7.- MODIFICACIÓN DE LA FRECUENCIA DE MUESTREO 7..- Introducción. Hasta ahora todos los sistemas de procesado digital que hemos analizado utilizan una frecuencia de muestreo fija. En ocasiones es necesario

Más detalles

PROGRAMA IEM-212 Unidad I: Circuitos AC en el Estado Senoidal Estable.

PROGRAMA IEM-212 Unidad I: Circuitos AC en el Estado Senoidal Estable. PROGRAMA IEM-212 1.1 Introducción. En el curso anterior consideramos la Respuesta Natural y Forzada de una red. Encontramos que la respuesta natural era una característica de la red, e independiente de

Más detalles

3.1. FUNCIÓN SINUSOIDAL

3.1. FUNCIÓN SINUSOIDAL 11 ÍNDICE INTRODUCCIÓN 13 CIRCUITOS DE CORRIENTE CONTINUA 19 Corriente eléctrica. Ecuación de continuidad. Primera ley de Kirchhoff. Ley de Ohm. Ley de Joule. Fuerza electromotriz. Segunda ley de Kirchhoff.

Más detalles

Una señal es una magnitud física de interés que habitualmente es una función del tiempo.

Una señal es una magnitud física de interés que habitualmente es una función del tiempo. 1.- Introducción al Procesado Digital de Señales. 1.1.- Introducción. Podemos decir que cuando realizamos cualquier proceso digital para modificar la representación digital de una señal estamos haciendo

Más detalles

RECOMENDACIÓN UIT-R TF.538-3 MEDICIONES DE LA INESTABILIDAD DE FRECUENCIA Y EN EL TIEMPO (FASE) (Cuestión UIT-R 104/7)

RECOMENDACIÓN UIT-R TF.538-3 MEDICIONES DE LA INESTABILIDAD DE FRECUENCIA Y EN EL TIEMPO (FASE) (Cuestión UIT-R 104/7) Caracterización de las fuentes y formación de escalas de tiempo Rec. UIT-R TF.538-3 1 RECOMENDACIÓN UIT-R TF.538-3 MEDICIONES DE LA INESTABILIDAD DE FRECUENCIA Y EN EL TIEMPO (FASE) (Cuestión UIT-R 104/7)

Más detalles

Estructuras algebraicas

Estructuras algebraicas Tema 2 Estructuras algebraicas básicas 2.1. Operación interna Definición 29. Dados tres conjuntos A, B y C, se llama ley de composición en los conjuntos A y B y resultado en el conjunto C, y se denota

Más detalles

Comunicaciones Digitales - Ejercicios Tema 3

Comunicaciones Digitales - Ejercicios Tema 3 Comunicaciones Digitales - Ejercicios Tema 3 007. 1. Considere el diagrama de rejilla para un canal discreto equivalente genérico con 4 coeficientes no nulos (memoria K p = 3) y una constelación -PAM.

Más detalles

Capítulo 6 Filtrado en el Dominio de la Frecuencia

Capítulo 6 Filtrado en el Dominio de la Frecuencia Capítulo 6 Filtrado en el Dominio de la Frecuencia...39 6. Método en el Dominio de la Frecuencia...39 6. Filtros Espaciales en la frecuencia...40 6.. Convolución Lineal y la Transformada Discreta de Fourier...45

Más detalles

Conversor Analógico Digital (CAD)

Conversor Analógico Digital (CAD) Conversor Analógico Digital (CAD) La salida de los sensores, que permiten al equipo electrónico interaccionar con el entorno, es normalmente una señal analógica, continua en el tiempo. En consecuencia,

Más detalles

Introducción al filtrado digital

Introducción al filtrado digital Introducción al filtrado digital Emilia Gómez Gutiérrez Síntesi i Processament del So I Departament de Sonologia Escola Superior de Musica de Catalunya Curso 2009-2010 emilia.gomez@esmuc.cat 2 de noviembre

Más detalles

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

Capítulo 7 Modulación de Pulsos

Capítulo 7 Modulación de Pulsos 237 Capítulo 7 Modulación de Pulsos Introducción Las modulaciones de amplitud, frecuencia y fase tratadas en los capítulos anteriores se designan genéricamente como modulaciones de onda continua, en que

Más detalles

UNIVERSIDAD DE EXTREMADURA Departamento de Matemáticas. Matemáticas. Manuel Fernández García-Hierro Badajoz, Febrero 2008

UNIVERSIDAD DE EXTREMADURA Departamento de Matemáticas. Matemáticas. Manuel Fernández García-Hierro Badajoz, Febrero 2008 UNIVERSIDAD DE EXTREMADURA Departamento de Matemáticas Matemáticas Manuel Fernández García-Hierro Badajoz, Febrero 2008 Capítulo VI Concepto de error 6.1 Introducción Uno de los temas más importantes en

Más detalles

CURSO CERO. Departamento de Matemáticas. Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre

CURSO CERO. Departamento de Matemáticas. Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre CURSO CERO Departamento de Matemáticas Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre Capítulo 1 La demostración matemática Demostración por inducción El razonamiento por inducción es una

Más detalles

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases.

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases. Tema III Capítulo 2 Sistemas generadores Sistemas libres Bases Álgebra Lineal I Departamento de Métodos Matemáticos y de Representación UDC 2 Sistemas generadores Sistemas libres Bases 1 Combinación lineal

Más detalles

Matemáticas. 1 o ESO. David J. Tarifa García. info@esobachilleratouniversidad.com.es

Matemáticas. 1 o ESO. David J. Tarifa García. info@esobachilleratouniversidad.com.es Matemáticas 1 o ESO David J. Tarifa García info@esobachilleratouniversidad.com.es 1 Matemáticas - 1 o ESO 2 Índice 1 Tema 1. Los números naturales 6 1.1 Suma de números naturales................................

Más detalles

72 2. Análisis de Fourier

72 2. Análisis de Fourier 72 2. Análisis de Fourier Un objeto matemático relacionado con las series es la transformada, introducida por Fourier al estudiar la conducción del calor en una barra de longitud infinita. Se ha aplicado

Más detalles

SECRETARIA DE EDUCACIÓN PÚBLICA SUBSECRETARIA DE EDUCACIÓN MEDIA SUPERIOR DIRECCIÓN DE BACHILLERATOS ESTATALES Y PREPARATORIA ABIERTA

SECRETARIA DE EDUCACIÓN PÚBLICA SUBSECRETARIA DE EDUCACIÓN MEDIA SUPERIOR DIRECCIÓN DE BACHILLERATOS ESTATALES Y PREPARATORIA ABIERTA SECRETARIA DE EDUCACIÓN PÚBLICA SUBSECRETARIA DE EDUCACIÓN MEDIA SUPERIOR DIRECCIÓN DE BACHILLERATOS ESTATALES Y PREPARATORIA ABIERTA DEPARTAMENTO DE PREPARATORIA ABIERTA MATEMÁTICAS II GUIA DE ESTUDIO

Más detalles

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano.

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. EL PLANO CARTESIANO. El plano cartesiano está formado

Más detalles

Repaso de matrices, determinantes y sistemas de ecuaciones lineales

Repaso de matrices, determinantes y sistemas de ecuaciones lineales Tema 1 Repaso de matrices, determinantes y sistemas de ecuaciones lineales Comenzamos este primer tema con un problema de motivación. Problema: El aire puro está compuesto esencialmente por un 78 por ciento

Más detalles

Representación de la información

Representación de la información Representación de la información A. Josep Velasco González Con la colaboración de: Ramon Costa Castelló Montse Peiron Guàrdia PID_00163598 CC-BY-SA PID_00163598 2 Representación de la información CC-BY-SA

Más detalles

Series y Transformada de Fourier

Series y Transformada de Fourier Series y Transformada de Fourier Series de Fourier Transformada de Fourier Series de Fourier Las series de Fourier describen señales periódicas como una combinación de señales armónicas (sinusoides). Con

Más detalles

SEÑALES Y ESPECTROS SEÑALES Y ESPECTROS 1

SEÑALES Y ESPECTROS SEÑALES Y ESPECTROS 1 SEÑALES Y ESPECTROS INTRODUCCIÓN. TERMINOLOGÍA USADA EN TRANSMISIÓN DE DATOS. FRECUENCIA, ESPECTRO Y ANCHO DE BANDA. DESARROLLO EN SERIE DE FOURIER PARA SEÑALES PERIÓDICAS. TRANSFORMADA DE FOURIER PARA

Más detalles

Ortogonalidad y Series de Fourier

Ortogonalidad y Series de Fourier Capítulo 4 Ortogonalidad y Series de Fourier El adjetivo ortogonal proviene del griego orthos (recto) y gonia (ángulo). Este denota entonces la perpendicularidad entre dos elementos: dos calles que se

Más detalles

FACULTAD DE INGENIERÍAS Y ARQUITECTURA SÍLABO

FACULTAD DE INGENIERÍAS Y ARQUITECTURA SÍLABO I. DATOS GENERALES SÍLABO CARRERA PROFESIONAL : INGENIERÍA ELECTRÓNICA Y CÓDIGO CARRERA PROFESIONAL : 29 ASIGNATURA : PROCESAMIENTO DIGITAL DE SEÑALES CÓDIGO DE ASIGNATURA : 29-406 CÓDIGO DE SÍLABO : 2940631012014

Más detalles

PROCESAMIENTO DIGITAL DE SEÑALES

PROCESAMIENTO DIGITAL DE SEÑALES BIBLIOGRAFÍA PROCESAMIENTO DIGITAL DE SEÑALES 1. Oppenheim, A.V., and R.W. Schafer. Discrete-Time Signal Processing. Englewood Cliffs, NJ: Prentice Hall, 1989. 2. Parks, T.W., and C.S. Burrus. Digital

Más detalles

Tema 3. Secuencias y transformada z

Tema 3. Secuencias y transformada z Ingeniería de Control Tema 3. Secuencias y transformada z Daniel Rodríguez Ramírez Teodoro Alamo Cantarero Contextualización del tema Conocimientos que se adquieren en este tema: Concepto de secuencia

Más detalles

Función de transferencia

Función de transferencia Función de transferencia La función de transferencia es la forma básica de describir modelos de sistemas lineales que se emplea en este curso. Basada en la transformación de Laplace, de la que se presentará

Más detalles

Capítulo 4 MEDIDA DE MAGNITUDES. Autor: Santiago Ramírez de la Piscina Millán

Capítulo 4 MEDIDA DE MAGNITUDES. Autor: Santiago Ramírez de la Piscina Millán Capítulo 4 MEDIDA DE MAGNITUDES Autor: Santiago Ramírez de la Piscina Millán 4 MEDIDA DE MAGNITUDES 4.1 Introducción El hecho de hacer experimentos implica la determinación cuantitativa de las magnitudes

Más detalles

TRANSFORMADA DE LAPLACE

TRANSFORMADA DE LAPLACE TRANSFORMADA DE LAPLACE DEFINICION La transformada de Laplace es una ecuación integral que involucra para el caso específico del desarrollo de circuitos, las señales en el dominio del tiempo y de la frecuencia,

Más detalles

Tema 2. La Información y su representación

Tema 2. La Información y su representación Tema 2. La Información y su representación 2.1 Introducción. Un ordenador es una máquina que procesa información. La ejecución de un programa implica la realización de unos tratamientos, según especifica

Más detalles

CAPÍTULO 2 PROCESAMIENTO DIGITAL DE IMÁGENES

CAPÍTULO 2 PROCESAMIENTO DIGITAL DE IMÁGENES CAPÍTULO PROCESAMIENTO DIGITAL DE IMÁGENES En este capítulo se presentan de manera breve, una explicación de la visión, las imágenes digitales y como son capturadas por medios electrónicos, el campo encargado

Más detalles

Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos.

Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos. Dependencia lineal de vectores y sus aplicaciones a la resolución de sistemas de ecuaciones lineales y de problemas geométricos. Prof. D. Miguel Ángel García Hoyo. Septiembre de 2011 Dependencia lineal

Más detalles

Análisis III. Joaquín M. Ortega Aramburu

Análisis III. Joaquín M. Ortega Aramburu Análisis III Joaquín M. Ortega Aramburu Septiembre de 1999 Actualizado en julio de 2001 2 Índice General 1 Continuidad en el espacio euclídeo 5 1.1 El espacio euclídeo R n...............................

Más detalles

Representación de señales y sistemas en el dominio de la frecuencia

Representación de señales y sistemas en el dominio de la frecuencia Representación de señales y sistemas en el dominio de la frecuencia Modulación y Procesamiento de Señales Ernesto López Pablo Zinemanas, Mauricio Ramos {pzinemanas, mramos}@fing.edu.uy Centro Universitario

Más detalles

Representación de señales de audio

Representación de señales de audio Representación de señales de audio Emilia Gómez Gutiérrez Síntesi i Processament del So I Departament de Sonologia Escola Superior de Musica de Catalunya Curso 2009-2010 emilia.gomez@esmuc.cat 28 de septiembre

Más detalles

TEMA 3: CONTINUIDAD DE FUNCIONES

TEMA 3: CONTINUIDAD DE FUNCIONES TEMA 3: CONTINUIDAD DE FUNCIONES. Valor Absoluto Trabajaremos en el campo de los números reales, R. Para el estudio de las propiedades de las funciones necesitamos el concepto de valor absoluto de un número

Más detalles

EIE 446 - SISTEMAS DIGITALES Tema 2: Sistemas de Numeración, Operaciones y Códigos

EIE 446 - SISTEMAS DIGITALES Tema 2: Sistemas de Numeración, Operaciones y Códigos EIE 446 - SISTEMAS DIGITALES Tema 2: Sistemas de Numeración, Operaciones y Códigos Nombre del curso: Sistemas Digitales Nombre del docente: Héctor Vargas Fecha: 1 er semestre de 2011 INTRODUCCIÓN El sistema

Más detalles

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos MODULACIÓN TRANSMISION DIGITAL La amplia naturaleza de las señales analógicas es evidente, cualquier forma de onda está disponible con toda seguridad en el ámbito analógico, nos encontramos con una onda

Más detalles

UNIDAD I INTRODUCCIÓN A LOS CIRCUITOS LÓGICOS 1. ÁLGEBRA DE BOOLE 2. MÉTODO DE REDUCCIÓN DE MAPAS DE KARNAUGH 1-1. R. ESPINOSA R. y P. FUENTES R.

UNIDAD I INTRODUCCIÓN A LOS CIRCUITOS LÓGICOS 1. ÁLGEBRA DE BOOLE 2. MÉTODO DE REDUCCIÓN DE MAPAS DE KARNAUGH 1-1. R. ESPINOSA R. y P. FUENTES R. UNIDAD I INTRODUCCIÓN A LOS CIRCUITOS LÓGICOS. ÁLGEBRA DE BOOLE 2. MÉTODO DE REDUCCIÓN DE MAPAS DE KARNAUGH - . INTRODUCCIÓN A LOS CIRCUITOS LÓGICOS. ÁLGEBRA DE BOOLE. ÁLGEBRA DE BOOLE El álgebra de Boole

Más detalles

2. Muestreo y recuperación de imágenes en el dominio de la frecuencia.

2. Muestreo y recuperación de imágenes en el dominio de la frecuencia. Muestreo y recuperación de imágenes en el dominio de la frecuencia 2. Muestreo y recuperación de imágenes en el dominio de la frecuencia. 2.1. Muestreo de señales analógicas unidimensionales Cuando queremos

Más detalles

IES CANARIAS CABRERA PINTO DEPARTAMENTO DE MATEMÁTICAS CONTENIDOS MÍNIMOS 1º ESO SEPTIEMBRE 2015

IES CANARIAS CABRERA PINTO DEPARTAMENTO DE MATEMÁTICAS CONTENIDOS MÍNIMOS 1º ESO SEPTIEMBRE 2015 CONTENIDOS MÍNIMOS 1º ESO SEPTIEMBRE 2015 UNIDAD 1: LOS NÚMEROS NATURALES. OPERACIONES Y RELACIONES El sistema de numeración decimal Estimación y redondeo de un número natural Las operaciones con números

Más detalles

TEMA I: INTRODUCCIÓN A LA ELECTRÓNICA DIGITAL

TEMA I: INTRODUCCIÓN A LA ELECTRÓNICA DIGITAL TEMA I: INTRODUCCIÓN A LA ELECTRÓNICA DIGITAL 1. Electrónica Digital Antes de empezar en el tema en cuestión, vamos a dar una posible definición de la disciplina que vamos a tratar, así como su ámbito

Más detalles

Fascículo 2. Álgebra Lineal. Cursos de grado. Gabriela Jeronimo Juan Sabia Susana Tesauri. Universidad de Buenos Aires

Fascículo 2. Álgebra Lineal. Cursos de grado. Gabriela Jeronimo Juan Sabia Susana Tesauri. Universidad de Buenos Aires Fascículo 2 Cursos de grado ISSN 1851-1317 Gabriela Jeronimo Juan Sabia Susana Tesauri Álgebra Lineal Departamento de Matemática Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 2008

Más detalles

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos

Más detalles

+ 7 es una ecuación de segundo grado. es una ecuación de tercer grado.

+ 7 es una ecuación de segundo grado. es una ecuación de tercer grado. ECUACIONES Y DESIGUALDADES UNIDAD VII VII. CONCEPTO DE ECUACIÓN Una igualdad es una relación de equivalencia entre dos epresiones, numéricas o literales, que se cumple para algún, algunos o todos los valores

Más detalles

Aritmética finita y análisis de error

Aritmética finita y análisis de error Aritmética finita y análisis de error Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Aritmética finita y análisis de error 1 / 47 Contenidos 1 Sistemas decimal

Más detalles

Problemas Resueltos de Desigualdades y Programación Lineal

Problemas Resueltos de Desigualdades y Programación Lineal Universidad de Sonora División de Ciencias Exactas y Naturales Departamento de Matemáticas. Problemas Resueltos de Desigualdades y Programación Lineal Para el curso de Cálculo Diferencial de Químico Biólogo

Más detalles

SISTEMAS NUMERICOS Y ERRORES

SISTEMAS NUMERICOS Y ERRORES SISTEMAS NUMERICOS Y ERRORES 1. Introducción a la Computación Numérica El primer computador electrónico en base a la tecnología de tubos al vacío fue el ENIAC de la Universidad de Pensilvania, en la década

Más detalles

Universidad Autónoma del Estado de Hidalgo

Universidad Autónoma del Estado de Hidalgo Universidad Autónoma del Estado de Hidalgo INSTITUTO DE CIENCIAS BÁSICAS E INGENIERÍA PROCESAMIENTO DE AUDIO EN TIEMPO REAL CON EL DSP TMS320C6711 TESIS PARA OBTENER EL TITULO DE INGENIERÍA EN ELECTRÓNICA

Más detalles

Análisis de Sistemas Lineales: segunda parte

Análisis de Sistemas Lineales: segunda parte UCV, Facultad de Ingeniería, Escuela de Ingeniería Eléctrica. Análisis de Sistemas Lineales: segunda parte Ebert Brea 7 de marzo de 204 Contenido. Análisis de sistemas en el plano S 2. Análisis de sistemas

Más detalles

Aplicaciones lineales

Aplicaciones lineales Capítulo 4 Aplicaciones lineales 4.1. Introduccción a las aplicaciones lineales En el capítulo anterior encontramos la aplicación de coordenadas x [x] B que asignaba, dada una base del espacio vectorial,

Más detalles

PARTE III OBTENCIÓN DE MODELOS OBTENCIÓN DE MODELOS MODELADO E IDENTIFICACIÓN ASPECTOS A TENER EN CUENTA MODELADO IDENTIFICACIÓN OBTENCIÓN DE MODELOS

PARTE III OBTENCIÓN DE MODELOS OBTENCIÓN DE MODELOS MODELADO E IDENTIFICACIÓN ASPECTOS A TENER EN CUENTA MODELADO IDENTIFICACIÓN OBTENCIÓN DE MODELOS OBTENCIÓN DE MODELOS PARTE III OBTENCIÓN DE MODELOS 1. INFORMACIÓN SOBRE EL SISTEMA 1. EL PROPIO SISTEMA (OBSERVACIÓN, TEST) 2. CONOCIMIENTO TEÓRICO (LEYES DE LA NATURALEZA, EXPERTOS, LITERATURA, ETC.)

Más detalles

Probabilidad y sus aplicaciones en ingeniería informática

Probabilidad y sus aplicaciones en ingeniería informática Probabilidad y sus aplicaciones en ingeniería informática Víctor Hernández Eduardo Ramos Ildefonso Yáñez c Víctor Hernández, Eduardo Ramos, Ildefonso Yánez EDICIONES CDÉMICS Probabilidad y sus aplicaciones

Más detalles

LIMITE DE SHANON PARA LA CAPACIDAD DE INFORMACIÓN

LIMITE DE SHANON PARA LA CAPACIDAD DE INFORMACIÓN CONVERSION ANALÓGICO A DIGITAL Con el paso del tiempo, las comunicaciones electrónicas han experimentado algunos cambios tecnológicos notables. Los sistemas tradicionales de comunicaciones electrónicas

Más detalles

REDES DE COMPUTADORES

REDES DE COMPUTADORES REDES DE COMPUTADORES TEMA 2 TRANSMISIÓN DE DATOS Y TEORÍA DE LA INFORMACIÓN 1 TRANSMISIÓN DE DATOS Y TEORÍA DE LA INFORMACIÓN 1.- Conceptos y definiciones básicas. 1.1.- Elementos de un sistema de comunicación.

Más detalles

ALGEBRA LINEAL. Héctor Jairo Martínez R. Ana María Sanabria R.

ALGEBRA LINEAL. Héctor Jairo Martínez R. Ana María Sanabria R. ALGEBRA LINEAL Héctor Jairo Martínez R. Ana María Sanabria R. SEGUNDO SEMESTRE 8 Índice general. SISTEMAS DE ECUACIONES LINEALES.. Introducción................................................ Conceptos

Más detalles

Introducción a la Teoría del Procesamiento Digital de Señales de Audio

Introducción a la Teoría del Procesamiento Digital de Señales de Audio Introducción a la Teoría del Procesamiento Digital de Señales de Audio Transformada de Fourier Discreta Resumen Respuesta en frecuencia de un sistema Convolución a través del dominio de la frecuencia Convolución

Más detalles

Capítulo 3. dependen de él son, por ejemplo, la voz, una onda de radio, un electrocardiograma, etc. El

Capítulo 3. dependen de él son, por ejemplo, la voz, una onda de radio, un electrocardiograma, etc. El Capítulo 3 Procesamiento digital de señales mioeléctricas Las señales se representan matemáticamente como funciones de una o más variables independientes. La variable independiente más común es el tiempo,

Más detalles

Tema 3. Espacios vectoriales

Tema 3. Espacios vectoriales Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición

Más detalles

ESTUDIO DE PITCH EN SEÑALES POLIFÓNICAS

ESTUDIO DE PITCH EN SEÑALES POLIFÓNICAS ESCUELA TECNICA SUPERIOR DE INGENIEROS INDUSTRIALES Y DE TELECOMUNICACIONES Titulación: INGENIERO TECNICO DE TELECOMUNICACIONES, ESPECIALIDAD IMAGEN Y SONIDO Titulo del proyecto: ESTUDIO DE PITCH EN SEÑALES

Más detalles

Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL. x x1 n. θ y. 1 n x1 n ȳ1 n. Carlos Arce S. William Castillo E. Jorge González V.

Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL. x x1 n. θ y. 1 n x1 n ȳ1 n. Carlos Arce S. William Castillo E. Jorge González V. Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL x x x1 n θ y y ȳ1 n 1 n x1 n ȳ1 n Carlos Arce S. William Castillo E. Jorge González V. 2003 Algebra Lineal Carlos Arce S., William Castillo

Más detalles

Procesamiento Digital de Señales

Procesamiento Digital de Señales Tecnológico de Costa Rica Escuela de Ingeniería Electrónica Notas de Clase Procesamiento Digital de Señales EL-5805 Dr. José Pablo Alvarado Moya Versión de 8 de julio de 0 Prefacio Estas notas de clase

Más detalles

Física P.A.U. VIBRACIONES Y ONDAS 1 VIBRACIONES Y ONDAS

Física P.A.U. VIBRACIONES Y ONDAS 1 VIBRACIONES Y ONDAS Física P.A.U. VIBRACIONES Y ONDAS 1 VIBRACIONES Y ONDAS INTRODUCCIÓN MÉTODO 1. En general: Se dibujan las fuerzas que actúan sobre el sistema. Se calcula la resultante por el principio de superposición.

Más detalles

Técnicas de análisis de la variabilidad de la frecuencia cardíaca

Técnicas de análisis de la variabilidad de la frecuencia cardíaca Técnicas de análisis de la variabilidad de la frecuencia cardíaca http://webs.uvigo.es/mrarthur/analisisvfc/index.html Grupo MILE Medical Informatics & Learning Environments Contenidos Parte I: Procesado

Más detalles

Universidad del CEMA Prof. José P Dapena Métodos Cuantitativos V - ESTIMACION PUNTUAL E INTERVALOS DE CONFIANZA. 5.1 Introducción

Universidad del CEMA Prof. José P Dapena Métodos Cuantitativos V - ESTIMACION PUNTUAL E INTERVALOS DE CONFIANZA. 5.1 Introducción V - ESTIMACION PUNTUAL E INTERVALOS DE CONFIANZA 5.1 Introducción En este capítulo nos ocuparemos de la estimación de caracteristicas de la población a partir de datos. Las caracteristicas poblacionales

Más detalles

ELECTRÓNICA DIGITAL. Sistemas analógicos y digitales.

ELECTRÓNICA DIGITAL. Sistemas analógicos y digitales. ELECTRÓNICA DIGITAL El tratamiento de la información en electrónica se puede realizar de dos formas, mediante técnicas analógicas o mediante técnicas digitales. El analógico requiere un análisis detallado

Más detalles

Ejemplos: Sean los conjuntos: A = { aves} B = { peces } C = { anfibios }

Ejemplos: Sean los conjuntos: A = { aves} B = { peces } C = { anfibios } La Teoría de Conjuntos es una teoría matemática, que estudia básicamente a un cierto tipo de objetos llamados conjuntos y algunas veces, a otros objetos denominados no conjuntos, así como a los problemas

Más detalles

Muestreo y Reconstrucción de

Muestreo y Reconstrucción de Capítulo 2 Muestreo y Reconstrucción de Señales 2.1. Introducción Muchas de las señales de interés práctico proceden de fenómenos físicos que son continuos y por tanto las señales que generan son analógicas.

Más detalles

Variables aleatorias. Función de distribución y características asociadas

Variables aleatorias. Función de distribución y características asociadas Índice 3 Variables aleatorias. Función de distribución y características asociadas 3.1 3.1 Introducción.......................................... 3.1 3.2 Concepto de variable aleatoria................................

Más detalles

Procesamiento Digital de Señal

Procesamiento Digital de Señal Procesamiento Digital de Señal ema 4: Análisis de Fourier en tiempo discreto ransformada de Fourier en tiempo discreto (DF) Serie de Fourier en tiempo discreto (DFS) ransformada de Fourier Discreta (DF)

Más detalles

82 2. Análisis de Fourier. Fig. 2.9. Área de los lóbulos de la función sinc( ). 2/a dx+ +

82 2. Análisis de Fourier. Fig. 2.9. Área de los lóbulos de la función sinc( ). 2/a dx+ + 82 2. Análisis de Fourier Fig. 2.9. Área de los lóbulos de la función sinc( ). sen(πax)/(πn) para (n )/a x n/a. Entonces sen(πax) /a 0 πax dx sen(πax) 2/a π dx+ sen(πax) 2π dx+ + 0 /a = n/a π sen(πax)

Más detalles

Ecuaciones Diferenciales Tema 2. Trasformada de Laplace

Ecuaciones Diferenciales Tema 2. Trasformada de Laplace Ecuaciones Diferenciales Tema 2. Trasformada de Laplace Ester Simó Mezquita Matemática Aplicada IV 1 1. Transformada de Laplace de una función admisible 2. Propiedades básicas de la transformada de Laplace

Más detalles

FUNCIONES TRIGONOMÉTRICAS

FUNCIONES TRIGONOMÉTRICAS UNIDAD 3 FUNCIONES TRIGONOMÉTRICAS Concepto clave: 1. Razones trigonométricas Si A es un ángulo interior agudo de un triángulo rectángulo y su medida es, entonces: sen longitud del cateto opuesto al A

Más detalles

. Cómo es la gráfica de z[n]?

. Cómo es la gráfica de z[n]? UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Ingenierías Eléctrica, Electrónica y Telecomunicaciones - E³T Perfecta combinación entre energía e intelecto TRATAMIENTO DE SEÑALES Actividades de Clase:

Más detalles

3.1 DEFINICIÓN. Figura Nº 1. Vector

3.1 DEFINICIÓN. Figura Nº 1. Vector 3.1 DEFINICIÓN Un vector (A) una magnitud física caracterizable mediante un módulo y una dirección (u orientación) en el espacio. Todo vector debe tener un origen marcado (M) con un punto y un final marcado

Más detalles

Muestreo e interpolación

Muestreo e interpolación Muestreo e interpolación Dr. Ing. Leonardo Rey Vega Señales y Sistemas (66.74 y 86.05) Facultad de Ingeniería Universidad de Buenos Aires Agosto 2013 Señales y Sistemas (66.74 y 86.05) Muestreo e interpolación

Más detalles

TEMA 2: Grupos. El grupo Simétrico.

TEMA 2: Grupos. El grupo Simétrico. Álgebra y Estructuras Discretas Grupo B de la Ingeniería Técnica de Sistemas TEMA 2: Grupos. El grupo Simétrico. 1. Definición de Grupo. Propiedades Básicas. Definición 1. Dado un conjunto no vacío G,

Más detalles