99
SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE SEÑALES” ANALISIS SITEMATICO DE FILTROS DIGITALES T E S I N A Que para obtener el grado de: INGENIERO EN COMUNICACIONES Y ELECTRÓNICA. Presentan: Bautista Villalpando Héctor Gerardo Torres Bautista Diana Torres Bautista Sergio Alfredo ASESORES: M. en C. ORLANDO BELTRÁN NAVARRO. M. en C. BRAULIO SANCHEZ ZAMORA México, D. F. Noviembre de 2009. INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA UNIDAD CULHUACAN INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA

SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE … · 2018. 1. 31. · SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE SEÑALES” ANALISIS SITEMATICO DE FILTROS DIGITALES

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE SEÑALES”

    ANALISIS SITEMATICO DE FILTROS DIGITALES

    T E S I N A

    Que para obtener el grado de:

    INGENIERO EN COMUNICACIONES Y ELECTRÓNICA.

    Presentan:

    Bautista Villalpando Héctor Gerardo Torres Bautista Diana Torres Bautista Sergio Alfredo

    ASESORES:

    M. en C. ORLANDO BELTRÁN NAVARRO. M. en C. BRAULIO SANCHEZ ZAMORA

    México, D. F. Noviembre de 2009.

    INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA

    UNIDAD CULHUACAN INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA

  • INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA ELÉCTRICA

    UNIDAD CULHUACAN

    TESINA Que para obtener el título de: INGENIERO EN COMUNICACIONES Y

    ELECTRONICA Por la opción de titulación: SEMINARIO DE TITULACIÓN

    “PROCESAMIENTO DIGITAL DE SEÑALES” Deberán desarrollar: Bautista Villalpando Héctor Gerardo Torres Bautista Diana Torres Bautista Sergio Alfredo

    INTRODUCCION

    Se analizaran los principios de las señales en tiempo discreto, los sistemas y los algoritmos y aplicaciones del procesado digital moderno, teniendo como resultado el diseño y desarrollo de un algoritmo en plataforma mathlab cuyo fin es dar un análisis sistemático a cada uno de los filtros digitales, pretendiendo dar un panorama mas sencillo del funcionamiento de los mismos.

    CAPITULO I Fundamentos de las señales CAPITULO II Sistemas discretos CAPITULO III Diseño de filtros Bibliografia Conclusiones _______________________________ _____________________________ M. en C. Orlando Beltrán Navarro M. en C. Braulio Sánchez Zamora Coordinador del seminario Asesor

    ________________________________ Ing. Ignacio Monroy Ostria

    Jefe de carrera de ICE

  • INDICE Pag. 1. Señales, sistemas y procesado de la señal 2 1.1 Elementos básicos de un sistema de procesado digital de señales 3 1.2 Ventajas del procesado digital de señales frente al analógico 5 2. Señales multicanal y multidimensionales 6 2.1 Señales continuas frente a señales discretas 8 2.2 Señales deterministas frente a señales aleatorias 9 3. El concepto de frecuencia en señales en tiempo continuo y en tiempo discreto 9 3.1 Señales sinusoidales en tiempo continuo 9 3.1 Señales sinusoidales en tiempo discreto 11 4. Teorema de muestreo 13 5. Cuantificación de señales sinusoidales 14 6. Codificación de muestras cuantificadas 16 7. Señales en tiempo discreto 16 7.1 Algunas señales elementales en tiempo discreto 18 7.2 Clasificación de las señales en tiempo discreto 19 7.3 Manipulación simples de señales en tiempo discreto 21 8. Sistemas discretos descritos mediante ecuaciones en diferencias 23 8.1 Sistemas discretos recursivos y no recursivos 23 9. Implementación de sistemas discretos 24 9.1 Realización de sistemas FIR recursivos y no recursivos 25 10. La transformada z 25 10.1 La transformada z inversa 28 10.2 Propiedades de la transformada z 29 11. Transformadas z racionales 33 11.1 Polos y ceros 33 11.2 La función de transferencia de un sistema lineal invariante en el tiempo

    34 11.3 Polos de orden múltiple y estabilidad 36 12. Análisis frecuencial de señales y sistemas 37 12.1 Análisis frecuencial de señales en tiempo continuo 38 12.2 Densidad espectral de energía de señales aperiódicas 39 13. Muestreo en el dominio de la frecuencia: la transformada de Fourier discreta 41 14. Estructuras para sistemas FIR 44 14.1 Estructuras en forma directa 45 14.2 Estructuras en forma de cascadas 46 15. Estructuras para sistemas IIR 47 15.1 Estructuras en forma directa 47 15.2 Estructuras en forma de cascada 49 16. Diseño de filtros digitales 51 16.1 Causalidad y sus implicaciones 51 16.2 Caracteristicas de filtros prácticos selectivos en frecuencia 53 17. Diseño de filtros FIR 55 18. Diseño de filtros IIR a partir de filtros analógicos 57 19. Muestreo y reconstrucción de señales 59 19.1 Muestreo de señal paso banda 62 Anexo 1 66 Anexo 2 94 Conclusiones 96 Bibliografía 97

  • 2

    1. Señales, sistemas y procesado de la señal. Una señal se define como una cantidad física que varia con el tiempo, el espacio o cualquiera otra variable o variable independiente. Matemáticamente, describimos una señal, una función de una o mas variables independientes. Por ejemplo, las funciones

    (1.1)

    describen dos señales, una que varia linealmente con la variable independiente t (tiempo) y una segunda que varia cuadráticamente con t .Como otro ejemplo considere la función

    (1.2) Esta función describe una señal con dos variables independientes x e y que pueden representar las coordenadas espaciales en un plano. Las señales discretas en las funciones (1.1) y (1.2) pertenecen a las clases de señales que quedan perfectamente definidas especificando la dependencia funcional con la variable independiente. Sin embargo, existen casos en los que dicha relación funcional es desconocida o demasiado complicada como para tener utilidad practica. Por ejemplo, una señal de voz no se puede describir funcionalmente mediante expresiones como la (1.1) En general, un segmento de voz puede representarse con un alto grado de exactitud como la suma de varias sinusoides de diferentes amplitudes y frecuencias, esto es, como

    (1.3)

    Donde son los conjuntos de amplitudes, frecuencias y fases, respectivamente, de las sinusoides. De hecho, una manera de interpretar la información o el mensaje contenido en un segmento corto de una señal de voz es medir las amplitudes, frecuencias y fases contenidas en el segmento corto de señal. Otro ejemplo de señal natural es el electrocardiograma (ECG). Esta señal proporciona información sobre el estado del corazón del paciente al doctor, de forma similar, un electroencefalograma proporciona información sobre la actividad cerebral. Las señales de voz, los electrocardiogramas y los electroencefalogramas son ejemplos de señales que llevan información y que varían como funciones de una única variable independiente, el tiempo. Una imagen constituye un ejemplo de señal que varia con dos variables independientes. Las dos variables independientes en este caso son las coordenadas

    ( )

    ()

    1

    22

    5

    20

    s t t

    s t t

    =

    =

    ( ) 2, 3 2 10s x y x xy y= + +

    ( ) () ( )1

    2N

    i i ii

    A t sen F t t tp q=

    é ù+ë ûå

    ( ){ } ( ){ } ( ){ }, ,i i iA t F t y tq

  • 3

    espaciales. Estos son unos pocos ejemplos del incontable número de señales naturales que se pueden encontrar en la práctica. Asociados a las señales naturales se encuentran los medios con los que se generan. Por ejemplo, las señales de voz se generan al forzar el paso del aire a través de las cuerdas vocales. Las imágenes se obtienen exponiendo película fotográfica ante un paisaje u objeto. Por lo tanto, la forma en que se generan las señales se encuentra asociada con un sistema que responde ante un estimulo o fuerza. En una señal de voz, el sistema esta constituido por las cuerdas vocales y el tracto bucal, también llamado cavidad bucal. El estimulo en combinación con el sistema se llama fuente de señal. Por lo tanto, tenemos fuentes de voz, de imágenes y de otros tipos de señales. Un sistema se puede definir también como un dispositivo físico que realiza una operación sobre una señal. Por ejemplo, un filtro que se usa para reducir el ruido y las interferencias que corrompen la señal conteniendo la información deseada se denomina sistema. En este caso, el filtro realiza algunas operaciones sobre la señal, cuyo efecto es reducir (filtrar) el ruido y la interferencia presentes en la señal deseada. Cuando pasamos una señal a través de un sistema, como en el caso del filtrado, decimos que hemos procesado la señal. En este caso, el procesado de la señal implica la separación de la señal deseada del ruido y la interferencia. En general, el sistema se caracteriza por el tipo de operación que realiza sobre la señal. Por ejemplo, si la operación es lineal, el sistema se denomina lineal, si la operación es no lineal el sistema se dice no lineal, etc. Tales operaciones se denominan habitualmente como procesado de señal. Para nuestros fines, es conveniente emplear la definición de sistema para incluir no solo dispositivos físicos, sino también realizaciones software de operaciones sobre una señal. En el procesado digital de señales en un ordenador, las operaciones realizadas sobre una señal constan de varias operaciones matemáticas especificadas por un programa software. En esta caso, el programa representa una implementación del sistema en software. Así, tenemos un sistema realizado sobre un ordenador digital mediante operaciones matemáticas, es decir, tenemos un sistema de procesado digital de señales realizado en software. Por ejemplo, se puede programar un ordenador digital para hacer filtrado lineal. Alternativamente, el procesado digital de la señal se puede efectuar mediante hardware digital (circuitos lógicos) configurado para ejecutar las operaciones deseadas especificadas. En tal realización, tenemos un dispositivo físico que realiza las operaciones especificadas. En un sentido mas amplio, un sistema digital se puede implementar como una combinaron de hardware digital y software, cada uno de los cuales desempeña su propio conjunto de funciones. Elementos básicos de un sistema de procesado digital de señales La mayor parte de las señales que aparecen en los ámbitos de la ciencia y la ingeniería son de naturaleza analógica, es decir, las señales son funciones de una variable continua, como el tiempo o el espacio y normalmente toman valores en un rango continuo. Tales señales pueden ser procesadas directamente por sistemas analógicos adecuados (como filtros o analizadores de frecuencia) o multiplicadores de frecuencia con el propósito de cambiar sus características o extraer cualquier información deseada. En tal caso, decimos que la señal

  • 4

    ha sido procesada directamente en forma analógica, como lo muestra la figura 1. Tanto la señal de entrada como la de salida están en forma analógica.

    Fig. 1 Procesado de señal analógica. El proceso digital de señales proporciona un método alternativo para procesar una señal analógica, como se muestra en la figura 2. para realizar el procesado digitalmente, se necesita un interfaz entre la señal analógica y el procesador digital. Este interfaz se denomina conversor analógico-digital (A/D). La salida del conversor analógico-digital es una señal adecuada como entrada al procesador digital.

    Fig. 2 Diagrama de bloques de un sistema digital de procesado de señales. El procesador digital de señales puede ser un gran ordenador digital programable o un pequeño microprocesador programado para realizar las operaciones deseadas sobre una señal de entrada. También puede ser un procesador digital cableado configurado para efectuar un conjunto de operaciones sobre la señal de entrada. Las maquinas programables proporcionan la flexibilidad de cambiar las operaciones de procesado de señales mediante un cambio del software. En consecuencia, los procesadores de señales programables son de uso muy frecuente. Por otro lado, cuando las operaciones de procesado de señales están bien definidas, se puede optimizar la implementación cableada de las operaciones, resultando un procesador mas barato y, habitualmente mas rápido que su equivalente programable. En aplicaciones donde la salida digital del procesador digital de señales se a de entregar en forma analógica, como en comunicaciones digitales, debemos proporcionar otro interfaz desde el dominio digital al analógico. Tal interfaz se denomina conversor analógico-digital (D/A). de este modo, la señal se entrega al usuario en forma analógica, como se ilustra en el diagrama a bloques de la figura 2. No obstante, existen otras

    Procesador analógico de

    señales

    Señal analógica de entrada

    Señal analógica de salida

    Señal analogica de salida

    Señal analógica de entrada

    Señal digital de entrada

    Señal digital de entrada

    Conversor A/D

    Procesador digital de señales

    Conversor D/A

  • 5

    aplicaciones practicas que requieren análisis de señales en las que la información deseada se encuentra en formato digital y no se requiere ningún conversor D/A. por ejemplo, en el procesado digital de señales radar, la información extraída de la señal radar, como la posición de la nave y su velocidad, se puede imprimir directamente sobre papel. En este caso, no hay necesidad de conversor D/A. Ventajas del procesado digital de señales frente al analógico Tal y como ya se ha mencionado brevemente, existen muchas razones por las que el procesado digital de una señal analógica puede ser preferible al procesado de la señal directamente en el dominio analógico. Primero, un sistema digital programable permite flexibilidad a la hora de reconfigurar las operaciones de procesado digital de señales sin mas que cambiar el programa. La reconfiguración de un sistema analógico implica habitualmente el rediseño del hardware, seguido de la comprobación y verificación para ver que opera correctamente. También desempeña un papel importante al elegir el formato del procesador de señales la consideración de la configuración. Las tolerancias en los componentes de los circuitos analógicos hacen que para el diseñador del sistema sea extremadamente difícil controlar la precisión de un sistema de procesado analógico de señales. En cambio, un sistema digital permite un mejor control de los requisitos de precisión. Tales requisitos, a su vez, resultan en la especificación de requisitos en la precisión del conversor A/D y del procesador digital de señales, en términos de longitud de palabra, aritmética de coma flotante frente a coma fija y factores similares. Las señales digitales se almacenan fácilmente en soporte magnético (cinta o disco) sin deterioro o perdida en la fidelidad de la señal, aparte de la introducida en la conversión A/D. como consecuencia, las señales se hacen transportables y pueden procesarse en tiempo no real en un laboratorio remoto. El método de procesado digital de señales también posibilita la implementación de algoritmos de procesado de señal mas sofisticados. Generalmente es muy difícil realizar operaciones matemáticas precisas sobre señales en formato analógico, pero esas mismas operaciones pueden efectuarse de modo rutinario sobre un ordenador digital utilizando software. En algunos casos, la implementación digital del sistema de procesado de señales es mas barato que su equivalente analógica. El menor coste se debe a que el hardware digital es mas barato o, quizás, es resultado de la flexibilidad ante modificaciones que permite la implementación digital. Como consecuencia de estas ventajas, el procesado digital de señales se ha aplicado a sistemas prácticos que cubren un amplio rango de disciplinas. Citamos, por ejemplo, la aplicación de técnicas de procesado digital de señales al procesado de voz y transmisión de señales en canales telefónicos, en procesado y transmisión de imágenes, en sismología y geofísica, en prospección petrolifica, en la detección de explosiones nucleares, en el procesado de señales recibidas del espacio exterior.

  • 6

    Sin embargo, como ya se ha indicado, la implementación digital tiene sus limitaciones. Una limitación practica es la velocidad de operación de los conversores A/D y de los procesadores digitales de señales. Veremos que las señales con anchos de banda extremadamente grandes precisan conversores A/D con una velocidad de muestreo alta y procesadores digitales de señales rápidos. Así, existen señales analógicas con grandes anchos de banda para las que la solución mediante procesado digital de señales se encuentra mas allá del estado del arte del hardware digital.

    2. Señales multicanal y multidimencionales Una señal se describe mediante una función de una o mas variables independientes, el valor de la función (es decir, de la variable dependiente) puede ser una escalar real, una cantidad compleja o quizás un vector. Por ejemplo, la señal

    es una señal real. Sin embargo, la señal

    es compleja. En algunas aplicaciones, las señales son generadas por múltiples fuentes o sensores. Tales señales pueden representarse en forma vectorial. La figura 3 muestra las tres componentes de una señal vectorial que representa la aceleración en la superficie terrestre de un terremoto. Esta aceleración es el resultado de tres calases elementales de ondas elásticas. Las ondas primarias (P) y las secundarias (S) se propagan en el interior de la roca y son longitudinales y transversales, respectivamente. La tercera clase de ondas elásticas se denomina onda superficial por que se propaga cerca de la superficie terrestre. Si sk ( t ), k =1,2,3, denota la señal eléctrica procedente del sensor k como función del tiempo, el conjunto p=3 señales pueden representarse por un vector S3( t ), donde

    Nos referiremos a tal vector de señales como una señal multicanal. Por ejemplo, un electrocardiograma se usan electrocardiogramas de 3 y 12 tomas que dan lugar a señales 3 y 12 canales.

    ( )1 3s t Asen tp=

    () 32 cos3 3j ts t Ae A t jAsen tp p p= = +

    ( )( )()( )

    1

    3 2

    3

    s t

    S t s t

    s t

    é ùê ú

    = ê úê úë û

  • 7

    Figura 3. Tres componentes de la aceleración en tierra medidas a pocos kilómetros del epicentro de un

    terremoto Prestemos ahora atención a las variables independientes, si la señal es función de una única variable independiente, la señal se denomina unidimensional. Por lo tanto, una señal se denomina M-dimensional si es función de M variables independientes.

    Fig. 4 Ejemplo de una señal bidimensional. La imagen que se muestra en la figura 4 es un ejemplo de señal bidimensional, dado que la intensidad o brillo I ( x , y ) en cada punto es una función de dos variables independientes. Por otra parte, la imagen de una televisión en blanco y negro puede representarse como I( x ,y ,t), dado que el brillo es una función del tiempo. Por tanto, la imagen de televisión puede tratarse como una señal tridimensional. En cambio, la imagen de una televisión en color se puede describir mediante las tres siguientes funciones de intensidad,

    I(x1,y1)

    x

    y

  • 8

    correspondientes al brillo de los tres colores principales: rojo, verde y azul, como función del tiempo. De aquí que la imagen de una tele visión en color sea una señal tridimensional de tres canales, que se puede representar mediante el vector

    En términos matemáticos estas señales se describen mediante una función de una única variable independiente. Aunque la variable independiente no necesita ser el tiempo, es práctica común utilizar t como la variable independiente. Señales continuas frente a señales discretas El valor de una señal, en tiempo continuo o discreto, puede ser continuo o discreto. Si una señal toma todos los valores posibles en un intervalo tanto finito como infinito, se dice que es continuo. Por el contrario, si toma valores de un conjunto finito de valores se dice que es discreta. Normalmente, estos valores son equidistantes y por tanto pueden expresarse como un múltiplo de la distancia entre dos valores sucesivos. Una señal en tiempo discreto, que toma valores en un conjunto discreto se le denomina señal digital. La figura 5 muestra una señal digital con cuatro valores posibles. Para que una señal pueda ser procesada digitalmente ha de ser en tiempo discreto y tomar valores discretos (es decir, ha de ser una señal digital). Si la señal a procesar es analógica, se convierte a digital muestreándola en el tiempo y obteniendo por tanto una señal en tiempo discreto y posteriormente cuantificación, es básicamente un proceso de aproximación. Puede lograrse por redondeo o truncamiento. Por ejemplo, si los valores permitidos en la señal digital son enteros, digamos del 0 al 15, la señal continua será cuantificada a estos valores. Así, el valor 8.58 se aproximara por 8, si el proceso de cuantificación se basa en el truncamiento y por 9, si se basa en redondear al entero más próximo.

    Fig. 5 Señal digital con cuatro valores de amplitud.

    ( ) ( ) ( ), , , , , , , ,r g bI x y t I x y t I x y t

    ( )( )( )( )

    , ,

    , , , ,

    , ,

    r

    g

    b

    I x y t

    I x y t I x y t

    I x y t

    é ùê ú

    = ê úê úê úë û

    -1 0 1 2 3 4 5 6 7 8 n

    x (n)

  • 9

    Señales deterministas frente a señales aleatorias El análisis matemático y procesado de señales requieren que la señal sea descrita matemáticamente. Esta descripción matemática, normalmente denominada modelo matemático, conduce a otra importante clasificación de la señal. Cualquier señal que pueda ser definida por una forma matemática explicita, un conjunto de datos o una regla bien definida se denomina determinista. Este término se usa para resaltar el hecho de que valores de la señal, tanto presentes como pasados como futuros, se conocen exactamente sin incertidumbre. En muchas situaciones practicas, sin embargo, existen señales que no se pueden describir con un alto de precisión razonable mediante formulas matemáticas explicitas, o cuya descripción es demasiado complicada para ser de utilidad practica. La falta de tal relación supone que dichas señales evolucionan con el tiempo de forma impredecible. Nos referiremos a estas señales como señales aleatorias. La salida de un generador de ruido, la señal sísmica de la figura 3, son ejemplos de las señales aleatorias.

    3. El concepto de frecuencia en señales en tiempo continuo y en tiempo discreto El concepto de frecuencia es familiar para los estudiantes de ingeniería y ciencias. Este concepto es básico en, por ejemplo, el diseño de un receptor de radio, un sistema de lata fidelidad, o un filtro espectral para fotografía en color. De la física sabemos que la frecuencia esta íntimamente relacionada con un tipo especifico de movimiento periódico llamado oscilación armónica, que se describe mediante funciones sinusoidales. El concepto de frecuencia esta directamente relacionado con el de tiempo. De hecho, sus dimensiones son las inversas del tiempo, por tanto. De acuerdo con esto, deberíamos esperar que la naturaleza del tiempo (continuo o discreto) afectase a la frecuencia. Señales sinusoidales en tiempo continuo Una simple oscilación armónica se describe matemáticamente mediante la siguiente señal en tiempo continuo:

    (3.1) que se muestra el la figura 6. El subíndice a usado con x (t) denota una señal analógica. Esta señal esta completamente caracterizada por tres parámetros: A es la amplitud de la sinusoide, W es la frecuencia en radianes por segundo (rad/s) y q es la fase en radianes. En lugar de W , a menudo se utiliza la frecuencia F ciclos por segundo o Hertzios (Hz), donde

    (3.2) La ecuación (3.1) puede escribirse en términos de F como

    (3.3)

    ( ) ( )cos ,ax t A t tq= W + -¥ < < ¥

    2 FpW =

    ( ) ( )cos 2 ,ax t A Ft tp q= + -¥ < < ¥

  • 10

    Utilizaremos ambas formas, (3.1) y (3.3), para representar señales sinusoidales. La señal analógica sinusoidal (3.3) esta caracterizada por las siguientes propiedades: A1. Para todo valor fijo de la frecuencia F, xa(t) es periódica. En efecto, puede demostrarse fácilmente, usando trigonometría elemental, que

    donde Tp = 1/F es el periodo fundamental de la señal sinusoidal. A2. Las señales en tiempo continuo con frecuencias diferentes, son diferentes. A3.El aumento en la frecuencia F resulta en un aumento en la tasa de oscilación de la señal, en el sentido de que se incluyen más periodos en un intervalo de tiempo dado. Como se observa, para F = 0, el valor Tp = ∞ es consistente con la relación fundamental F = 1/Tp . Debido a la continuidad de la variable temporal t, podemos aumentar la frecuencia F sin límite, con el consiguiente aumento en la tasa de oscilación. Las propiedades que hemos descrito para señales sinusoidales son aplicables a la clase de señales exponenciales complejas

    (3.4) Esto es fácil de ver expresando estas señales en términos de sinusoides mediante la identidad de Euler

    (3.5)

    Fig. 6 Ejemplo de una señal sinusoidal analógica. Por definición, la frecuencia es una cantidad física inherentemente positiva. Esto es obvio si interpretamos la frecuencia como el número de ciclos por unidad de tiempo de una señal

    ( ) ( )a p ax t T x t+ =

    ( ) ( )j tax t Ae qW +=

    cosje jsenf f f± = ±

    t

    1/pT F=

    A-

    cosA q

  • 11

    periódica. Sin embargo, en muchos casos, únicamente por conveniencia matemática, necesitamos introducir frecuencias negativas, Para entender esto, recordemos que la señal sinusoidal (3.1) se puede expresar como

    (3.6)

    Que se deduce de (3.5). Debe advertirse que a una señal sinusoidal se puede obtener como la suma de dos señales exponenciales complejas de igual magnitud, en ocasiones llamadas favores, ilustrada en la figura 7. A medida que transcurre el tiempo, los favores rotan en direcciones opuestas con frecuencias angulares ±W radianes por segundo. Dado que una frecuencia positiva se corresponde con un movimiento angular uniforme contrario a las agujas de reloj, una frecuencia negativa simplemente se corresponde con un movimiento angular uniforme en el sentido de las agujas del reloj. El rango de frecuencias para señales sinusoidales analógicas es -∞ < F < ∞.

    Fig. 7 Representación de una función coseno mediante exponenciales complejas conjugadas (favores)

    Señales sinusoidales en tiempo discreto Una señal sinusoidal en tiempo discreto puede expresarse como

    (3.7) donde n es una variable entera, denominada numero de muestra, A es la amplitud de la sinusoide, w es la frecuencia en radianes por muestra, y q es la fase en radianes. Si, en lugar de w, utilizamos la variable de frecuencia f definida por

    (3.8) La relación (3.7) se convierte en

    (3.9)

    ( ) ( ) ( ) ( )cos2 2

    j t j ta

    A Ax t A t e eq qq W + - W += W + = +

    Im

    A/2 W

    W

    W t + q

    W t + q

    A/2

    Re

    ( ) ( )cos ,x n A n nw q= + -¥ < < ¥

    2 fw pº

    ( )( ) cos 2 ,x n A fn np q= + -¥ < < ¥

  • 12

    La frecuencia f tiene dimensiones de ciclos por muestra. Consideremos la sinusoide en tiempo discreto en (3.7), independientemente de la sinusoide en tiempo continuo dada en (3.1). En contraste con las sinusoides en tiempo continuo, las sinusoides en tiempo discreto están caracterizadas por las propiedades siguientes: B1. Una sinusoide en tiempo discreto es periódica solo si su frecuencia f es un número racional. Por definición, una señal en tiempo discreto x (n) es periódica con periodo N ( N > 0 ) si y solo si

    para todo n (3.10) El valor más pequeño de N para el que se cumple (1.10) se denomina fundamental. La demostración de la propiedad de periodicidad es simple. Para que una sinusoide con frecuencia f0 sea periódica, debemos tener

    Esta relación es cierta si y sólo si existe un entero k tal que

    O, equivalentemente,

    (3.11)

    De acuerdo con (3.11), una señal sinusoidal en tiempo discreto es periódica solo si su frecuencia f0 se puede expresar como el cociente de dos enteros (esto es, si f0 es racional). Para determinar el periodo fundamental N de una sinusoide periódica, debemos expresar su frecuencia como en (3.11) y cancelar factores comunes hasta que k y N sean números primos relativos. Entonces el periodo fundamental de la sinusoide es N. Obsérvese que una pequeña variación en la frecuencia puede originar un gran cambio en el periodo. B2. Las sinusoides en tiempo discreto cuyas frecuencias están separadas por un múltiplo entero de 2p, son idénticas. Para probar esta aseveración, consideremos la sinusoide cos(w0n + q). Fácilmente se comprueba que

    (3.12) Como resultado, todas las secuencias sinusoidales

    ( ) ( )x n N x n+ =

    ( ) ( )0 0cos 2 cos 2f N n f np q p q+ + = +é ùë û

    02 2f N kp p=

    0kfN

    =

    ( ) ( ) ( )0 0 0cos 2 cos 2 cosn n n nw p q w p q w q+ + = + + = +é ùë û

  • 13

    k = 0, 1, 2,… (3.13) donde

    Son indistinguibles (esto es, idénticas). B3. La mayor tasa de oscilación en una sinusoide en tiempo discreto se alcanza cuando w = p (o w = -p ) o, equivalentemente, f = ½ (o f = -1/2).

    4. Teorema de muestreo Dada una señal analógica cualquiera, en particular, debemos tener cierta información general sobre el contenido frecuencial de la señal. Generalmente, dicha información se encuentra disponible. De hecho, el propósito del procesado de señal es normalmente la extracción de dichas características. Sin embargo, si conocemos la máxima frecuencia de una determinada clase de señales podemos especificar la velocidad de muestreo necesaria para convertir las señales analógicas en señales digitales. Supongamos que cualquier señal analógica se puede representar como una suma de sinusoides de diferentes amplitudes, frecuencias y fases, es decir,

    (4.1)

    donde N indica el número de componentes de frecuencia. Todas las señales, como las de voz o video, se presentan a dicha representación en cualquier intervalo de tiempo pequeño. Normalmente, las amplitudes, fases y frecuencias de una determinada señal no exceden una frecuencia máxima conocida Fmax. Dado que la máxima frecuencia puede variar ligeramente, podemos querer asegurar que Fmax no sobrepase determinado valor y para ello pasaremos la señal analógica por un filtro que atenúe fuertemente las componentes de frecuencia por encima de Fmax. Así, estaremos seguros de que ninguna señal de la clase que nos interesa tendrá componentes de frecuencia (con amplitud o potencia significativa) por encima de Fmax. En la práctica, este filtrado se realiza antes del muestreo. El conocimiento de Fmax nos permite seleccionar la velocidad de muestreo apropiada. Sabemos que la frecuencia más alta de la señal analógica que puede reconstruirse sin ambigüedad cuando la señal se muestrea a una velocidad Fs=1/T es Fs/2. Cualquier frecuencia por encima por encima de Fs/2 o por debajo de –Fs/2 produce muestras que son idénticas a las correspondientes a frecuencias dentro del intervalo –Fs/2 ≤ F ≤ Fs/2. Para evitar las ambigüedades que resultan del aliasing, se debe seleccionar una velocidad de muestreo lo suficientemente alta, esto es, debemos escoger Fs/2 mayor que Fmax. Por tanto, para evitar el problema del aliasing, se selecciona Fs según

    (4.2)

    donde Fmax es la frecuencia más alta de la señal analógica.

    ( ) ( )cos ,k kx n A nw q= +

    0 2 ,k kw w p= + 0p w p- £ £

    ( ) ( )1

    cos 2N

    a i i ii

    x t A Ftp q=

    = +å

    max2sF F>

  • 14

    La condición Fs > 2 Fmax garantiza que todas las componentes sinusoidales de la señal analógica se correspondan con componentes en frecuencia de tiempo discreto en el intervalo fundamental. Por lo tanto, todas las componentes en frecuencia de tiempo discreto en el intervalo fundamental. Por lo tanto, todas las componentes en frecuencia de la señal analógica están representadas sin ambigüedad en la forma muestreada de la señal, y si la señal analógica puede ser reconstruida sin distorsión a partir de las muestras usando un método de interpolación “apropiado” (conversión digital-analógica). La formula de interpolación ideal o “apropiada” se especifica mediante el teorema del muestreo. Teorema del muestreo. Si la frecuencia más alta contenida en una señal analógica xa(t) es Fmax = B y la señal se muestrea a una velocidad Fs > 2Fmax º 2B, entonces xa(t) se puede recuperar totalmente a partir de sus muestras mediante la siguiente función de interpolación

    (4.3)

    Así, xa(t) se puede expresar como

    (4.4)

    donde xa (n/Fs) = xa (nT )º x (n) son las muestras de xa(t).

    5. Cuantificación de señales sinusoidales La figura 8 ilustra el muestreo y cuantificación de una señal sinusoidal analógica, , usando una malla rectangular. Las líneas horizontales indican los niveles de cuantificación autorizados. Las líneas verticales, los instantes de muestreo. Por lo tanto, de la señal analógica original obtenemos una señal en tiempo discreto x(n) = xa(nT), mediante muestreo, y una señal en tiempo discreto con amplitud discreta xq(nT) después de la cuantificación. En la práctica, la señal escalonada xq(t) se puede obtener utilizando un mantenedor de orden cero. Este análisis es útil porque las sinusoides se usan como señales de test en los conversores A/D.

    Figura 8. Muestreo y cuantificación de una señal sinusoidal.

    ( ) 22

    sen Btg tBtp

    p=

    ( )a an s s

    n nx t X g tF F

    ¥

    =-¥

    æ ö æ ö= -ç ÷ ç ÷

    è ø è øå

    ( ) 0cosax t t= A W( )ax t

  • 15

    Figura 9 El error de cuantificación eq(t) = xa(t) – xq(t) Si la tasa de muestreo Fs satisface el teorema del muestreo, el de cuantificación es el único error en el proceso de conversión A/D. Por tanto, podemos evaluar el error de cuantificación sin más que cuantificar la señal analógica xa(t) en lugar de la señal en tiempo discreto x(n) = xa(nT). La inspección de la figura 8 indica que la señal xa(t) es casi lineal entre niveles de cuantificación. El error de cuantificación correspondiente eq(t) = xa(t) – xq(t) se muestra en la figura 9. En la figura 9 τ denota el tiempo durante el que xa(t) se mantiene dentro de los niveles de cuantificación. La potencia media del error cuadrático Pq es

    (5.1)

    Como ( ) ( )/ 2 , ,qe t t tt t t= D - £ £ se tiene que

    (5.2)

    Si el cuantificador tiene b bits de precisión y cubre el rango completo 2ª, el escalón de cuantificación es Δ = 2A / 2b. Asi pues,

    (5.3)

    La potencia media de la señal xa(t) es

    (5.4)

    La calidad de la salida del conversor A/D se mide frecuentemente con la relación señal / ruido de cuantificación (SQNR, signal-to-quantization noise ratio), que proporciona la relación entre la potencia de la señal y del ruido:

    (5.5)

    Expresada en decibelios (dB), la SQNR es (5.6)

    ( ) ( )2 20

    1 12q q q

    P e t dt e t dtt t

    tt t-= =ò ò

    2 22

    0

    12 12q

    P t dtt

    t tD Dæ ö= =ç ÷

    è øò

    2

    2

    / 32q b

    AP =

    ( )2

    200

    1 cos2

    pT

    xp

    AP A t dtT

    = W =ò

    23 22

    bx

    q

    PSQNRP

    = = ×

    ( ) 1010log 1.76 6.02SQNR dB SQNR b= = +

  • 16

    Lo que implica que la SQNR aumenta aproximadamente en 6 dB por cada bit añadido a la longitud de palabra, es decir cada vez que se duplica el numero de niveles de cuantificación.

    6. Codificación de muestras cuantificadas El proceso de cuantificación en un conversor A/D asigna un número binario único a cada nivel de cuantificación diferente. Si disponemos de L niveles, necesitaremos al menos L niveles binarios distintos. Con una longitud de palabra de b bits se pueden crear 2b números binarios diferentes. Por tanto, tenemos 2b ≥ L ó, de forma equivalente, b ≥ log2L De este modo, el número de bits necesarios en el codificador es el menor entero mayor o igual que log2L. Generalmente, cuanto mayor es la velocidad de muestreo y más fina la cuantificación, más caro resulta el dispositivo.

    7. Señales en tiempo discreto Una señal en tiempo discreto x (n) es una función de una variable independiente entera. Gráficamente, se representa como en la Fig. 10 Es importante destacar que una señal en tiempo discreto no esta definida para instantes entre dos muestras sucesivas. Igualmente, es incorrecto pensar que x (n) es igual a cero si n no es un entero. Simplemente, la señal x (n) no está definida para valores no enteros de n. En lo sucesivo supondremos que una señal en tiempo discreto se define para cada valor entero n para -∞ < n > ∞. Por tradición, nos referimos a x(n) como la “n-esima muestra” de la señal aun cuando x(n) sea inherentemente en tiempo discreto (es decir, aunque no haya sido obtenida por muestreo de una señal analógica). En el caso en que x(n) haya sido obtenida al muestrear una señal analógica xa(t), entonces x(n) º xa(nT), donde T es el periodo de muestreo (el tiempo entre muestras sucesivas).

    Fig. 10 Representación gráfica de una señal en tiempo discreto

    -4 -2 -1 0 1 2 3 5

    x (n)

    -3 4

    0.9

    - 0.8

    0.7

    1.5

    2 1.7

    1.0 0.7

    - 0.8

    1.2

    n

  • 17

    Además de la representación gráfica de una señal en tiempo discreto o secuencia como se ilustra en la figura 8, existen otras representaciones alternativas que a menudo son más convenientes. Estas son:

    1. Representación funcional, como

    (7.1)

    2. Representación tabular, como 3. Representación como secuencia

    Una señal o secuencia de duración infinita con el origen de tiempos (n = 0) indicado por el símbolo se representa como

    (7.2) Una secuencia x(n), que es cero para n < 0, se puede representar como

    (7.3) El origen de tiempos de una secuencia x(n), que es cero para n < 0, se interpreta como el primer (comenzando por la izquierda) punto de la secuencia. Una secuencia de duración finita se puede representar como

    (7.4)

    Mientras que una secuencia de duración finita que satisface la condición x(n) = 0 para n < 0 se puede representar como

    (7.5)

    para n = 1,3

    para n = 2

    en otro caso ( )

    1,4,0,

    x nìï= íïî

    … -2 -1 0 1 2 3 4 5 … … 0 0 0 1 4 1 0 0 … ( )

    nx n

    ( ) { }...0,0,1, 4,1,0,0,...x n =

    ( ) { }0,1,4,1,0,0,...x n =

    ( ) { }3, 1, 2,5,0, 4, 1x n = - - -

    ( ) { }0,1, 4,1x n =

  • 18

    para n ≥ 0

    para n < 0 ( ) 1,

    0,u n ì= í

    î

    La señal dada en (7.4) está formada por siete muestras o puntos (en el tiempo), de manera que se denomina secuencia de siete puntos. De forma similar, la secuencia dada por (7.5) es una secuencia de cuatro puntos. Algunas señales elementales en tiempo discreto

    En nuestro estudio de istemas y señales discretas en el tiempoexisten varias señales básicas que aparecen con frecuencia y juegan un importante papel. Estas señales se definen mas abajo.

    1. El impulso unitario se denomina δ(n) y se define como

    (7.6)

    En otras palabras, el impulso unitario es una señal que vale cero siempre excepto para n = 0 donde vale uno. Al contrario que la señal analógica δ(t), que también se conoce como impulso unitatrio y vale cero siempre excepto en t = 0, donde tiene área unidad, la secuencia respuesta impulsional es mucho menos complicada matemáticamente. La representación gráfica de δ(n) se muestra en la figura 11.

    Figura 11 Representación gráfica de la señal de una muestra.

    2. La señal escalón unidad se denota como u(n) y se define como

    (7.7)

    Figura 12 Representación gráfica de la señal escalón unidad

    para n = 0

    para n ≠ 0 ( ) 1,

    0,nd ì= í

    î

  • 19

    3. La señal rampa unidad se denota como ur (n) y se define como

    (7.8)

    Figura 13 Representación gráfica de la señal ampa unidad

    4. La señal exponencial es una secuencia de la forma

    (7.9) Si el parámetro a es real, entonces x(n) es una señal real, cuando el parametro a es complejo puede expresarse como

    a ≡ rejθ donde r y θ son ahora los parámetros. De aquí que podamos expresar x(n) como

    (7.10) Clasificación de las señales en tiempo discreto

    Los métodos matemáticos empleados en el análisis de sistemas y señales en tiempo discreto dependen de las caracterisicas de las señales. En esta sección realizamos una clasificación de las señales en tiempo discreto que atiende a diferentes características. Señales de energía y señales de potencia La energía E de una señal x(n) se define como

    (7.11)

    Hemos considerado el módulo al cuadrado de x(n);por tanto, esta definición se aplica tanto a señales reales como a señales complejas. La energía de una señal puede ser finita o infinita. Si E es finita (es decir, 0 < E < ∞), entonces se dice que x(n) es una señal de

    para n ≥ 0

    para n < 0 ( ) ,

    0,rn

    u n ì=íî

    x(n) = an para todo n

    ( ) n j nx n r e q=( )cosnr n jsen nq q= +

    ( )2n

    x n¥

    =-¥å

  • 20

    energía. Algunas Veces añadimos un subindice x a E y escribimos Ex para hacer hincapié en que Ex es la energía de la señal x(n). Muchas señales que poseen energía infinita tienen potencia media finita. La potencia media de una señal discreta en el tiempo x(n) se define como

    (7.12)

    Si definimos la energía de una señal sobre un intervalo finito –N ≤ n ≤ N como

    (7.13)

    Entonces podemos expresar la energía E de la señal como

    (7.14)

    Y la potencia media de la señal x(n) como

    (7.15)

    Claramente, si E es finita, P = 0. Por otra parte, si E es infinita, la potencia media P puede ser tanto finita como infinita. Si P es finita (y distinta de cero), la señal se denomina señal de potencia. Señales periodicas y señales aperiodicas Una señal x(n) es periódica con periodo N(N > 0) si y sólo si

    (7.16) El valor más pequeño de N para el que (7.16) se verifica se denomina periodo (fundamental). Si (7.16) no se verifica para ningún valor de N la señal se denomina aperiódica o no periódica. Hemos visto ya que una señal sinusoidal de la forma

    (7.17)

    Es periódica cuando f0 es un número racional, es decir, si f0 se puede expresar como

    (7.18)

    ( )21lim2 1

    N

    N n NP x n

    N®¥ =-=

    + å

    ( )2N

    Nn N

    E x n=-

    º å

    lim NNE E®¥º

    1lim2 1 NN

    P EN®¥

    º+

    Para todo n ( ) ( )x n N x n+ =

    ( ) 02x n Asen f np=

    0kfN

    =

  • 21

    Donde k y N son enteros. La energía de una señal periódic x(n) sobre un único periodo es finita si x(n) toma valores finitos en el periodo. Sin embargo, la energía de una señal periódica en el intervalo - ∞ ≤ n ≤ ∞ es infinita. Por otra parte, la potencia media de una señal periódica es finita y es igual a la potenciamedia sobre un único periodo. Por lo tanto si x(n) es una señal periódica con periodo fundamental N y toma valores finitos, su potencia viene dada por

    (7.19)

    En consecuencia, las señales periódicas son señales de potencia. Señales simétricas (pares) y antisimétricas (impares) Una señal real x(n) se denomina simétrica (par) si

    (7.20) Por otra parte, una señal x(n) se denomina antisimétrica (impar) si

    (7.21)

    Una señal arbitraria puede expresarse como la suma de dos componentes, una de las cuales es par y la otra impar. La componente par de la señal se construye sumando x(n) y x(-n) y dividiendo por 2:

    (7.22)

    Claramente, xe(n) satisface la condición de simetría (7.20). De forma similar, formamos la componente impar de la señal x0(n) de acuerdo con la relación

    (7.23)

    Manipulaciones simples de señales en tiempo discreto En esta sección se consideran algunas modificaciones o manipulaciones simples en las que intervienen la variable independiente y la amplitud de la señal (variable dependiente). Transformación de la variable independiente (tiempo) Una señal x(n) puede ser desplazada en el tiempo reemplazando la variable independiente n por n – k, donde k es un entero. Si k es un entero positivo, el desplazamiento temporal resulta en un retraso de la señal en k unidades de tiempo. Si k es un entero negativo, el desplazamiento temporal resulta en un adelanto de la señal en ׀k׀ unidades de tiempo.

    ( )1 2

    0

    1 N

    nP x n

    N

    -

    =

    = å

    ( ) ( )x n x n- =

    ( ) ( )x n x n- = -

    ( ) ( ) ( )12e

    x n x n x n= + -é ùë û

    ( ) ( ) ( )012

    x n x n x n= - -é ùë û

  • 22

    Otra modificación útil de la base temporal es reemplazar la variable independiente n por –n. El resultado de esta operación es un pliegue o una reflexión de la señal con respecto al origen de tiempos n = 0. Es importante destacar que las operaciones de reflexión y retardo ( o adelanto) temporal de una señal no son conmutativas. Si denotamos la operación por TD y la operación de reflexión por FD, podemos escribir

    (7.24)

    Ahora

    (7.25)

    mientras que

    (7.26)

    Observese que como los signos de n y k en x(n-k) y x(-n+k) son diferentes, el resultado es un desplazamiento de las señales x(n) y x(-n) en k unidades hacia la derecha, correspondiendo con un retardo tempoal. Una tercera modificación de la variable independiente implica reemplazar n por µn, siendo µ un entero. Nos referimos a esta modificación de la base de tiempos como escalado temporal o submuestreo. Suma, multiplicación y escalado de secuencias Las modificaciones de la amplitud incluyen suma, multiplicación y escalado de las señales discretas en el tiempo. El escalado de amplitud deuna señal por una constante A se obtiene multiplicando el valor de cada muestra de la señal por A. Así, obtenemos

    La suma de dos señales x1(n) y x2(n) es una señal y(n) cuyo valor en cualquier instante es igual a la suma de los valores en ese instante de las dos señales de partida, es decir,

    El producto se define análogamente en cada instante de tiempo como

    ( ){ } ( ) ( )k kTD FD x n TD x n x n k= - = - +é ù é ùë û ë û

    ( ){ } ( ) ( )kFD TD x n FD x n k x n k= - = - -é ù é ùë û ë û

    ( ) ( )kTD x n x n k= -é ùë û( ) ( )FD x n x n= -é ùë û

    k > 0

    - ∞ < n < ∞ ( ) ( )y n Ax n=

    ( ) ( ) ( )1 2y n x n x n= + - ∞ < n < ∞

    ( ) ( ) ( )1 2y n x n x n= - ∞ < n < ∞

  • 23

    8. Sistemas discretos descritos mediante ecuaciones en diferencias Hasta este punto hemos considerado sistemas lineale invariantes en el tiempo que quedan caracterizados mediante su respuesta impusional h(n). Esta respuesta impulsional h(n) nos permite calcular la salida del sistema y(n) como respuesta a una entrada determinada x(n) por medio de la convolución

    (8.1)

    En general, hemos demostrado que un sistema lineal e invariane en el tiempo queda caracterizado por una relación de entrada-salida de la forma dada en (8.1). lo que es más, la ecuación (8.1) nos sugiere la forma de realizar el sistema. En el caso de sistemas FIR, esta realización consistiría en sumadores, multiplicadores y un número finito de posiciones de memoria. En consecuenci, un sistema FIR se puede implementar basándose directamente en la convolución. Sin embargo, si el sistema es IIR una implementación práctica basada en la convolución sería imposible ya que requeriría un número infinito de sumadores, multiplicadores y posiciones de memoria. Surge entonces la pregunta de si es posible o no realizar sistemas IIR de otra forma que no sea la directamente sugerida por la convolución. Afortunadamente la respuesta es sí. Tal y como demostraremos en esta sección, existe una manera práctica y eficiente, desde el punto de vista computacional, de realizar una familia de sistemas IIR. Dentro de la clase general de sistemas IIR, esta familia de sistemas discetos se describe mediante ecuaciones en diferencias. Esta familia o subclase de los sitemas IIR es muy útil en diversas aplicaciones prácticas que incluyen la implementación de filtros digitales, y el modelado de sistemas y fenómenos fisicos.

    8.1 Sistemas discretos recursivos y no recursivos La convolución expresa de forma explicita, en términos únicamente de la señal de entrada, la salida de un sistema lineal e invariante en el tiempo. Sin embargo, como se demuestra aquí, éste no es necesariamente el caso. Exisen muchos sistemas, en los que es o bien necesario o bien conveniente, expresar la salida del sistema no sólo en términos de los valores presentes y pasados de la señal de entrada sino también en función de los valores pasados e la propia señal de salida. Supongamos que queremos calcular la media acumulativa de una señal x(n) en el intervalo 0 ≤ k ≤ n, definida como

    (8.2)

    Como se desprende de (8.2), el cálculo de y(n) requiere el almacenamiento de todas las muestras de x(k) para 0 ≤ k ≤ n. Dado que n crece, tambien lo hacen nuestras necesidades de memoria de forma lineal con el tiempo.

    ( ) ( ) ( )k

    y n h k x n k¥

    =-¥

    = -å

    ( ) ( )0

    11

    n

    ky n x k

    n ==

    + å n = 0,1,…

  • 24

    Parece, sin embargo, que una manera más eficiente de calcular y(n) se basará en utilizar la salida anterior y(n - 1). De hecho, recordando (8.2) obtenemos

    de aquí

    (8.3)

    Así, la medida acumulativa de y(n) se puede calcular de forma recursva multiplicando el valor anterior de la salida y(n – 1) por n/(n + 1), multiplicando la entrada actual x(n) por 1/(n + 1), y sumando los dos productos. Por tanto{ el cálculo de y(n) según (8.3) requiere dos multiplicaciones, una suma y una posición de memoria como se muestra en la figura 13. Este es un ejemplo de un sistema recursivo. En general, un sistema cuya salida en el instante n depende de valores antoriores de la misma y(n – 1), y(n – 2), … se denomina sistema recursivo.

    Figura 14 Relación de un sistema recursivo para el cálculo de la media acumulativa. Lo que queremos dejar claro es que si uno desea calcula la respuesta del sistema (8.3) (en este caso la media acumulativa) a una determinada señal de entrada que se aplica en el instante n = n0 , necesita el valor de y(n0 – 1) y las muestras de entrada x(n) para n ≥ n0 a la entrada x(n), independientemente de lo que ocurriera con anterioridad.

    9. Implementación de sistemas discretos Nuestro tratamiento de los sistemas discretos se ha centrado en la caracterización en el dominio del tiempo y en el análisis de sistemas lineales invariantes en el tiempo, descritos mediante ecuaciones en diferencias lineales de coeficientes constantes. En la práctica, el diseño y la implementación se tratan conjuntamente. A menudo el diseño del sistema está determinado por el método de implementación y sus limitaciones como coste, tamaño, harware y potencia. De momento no hemos desarrollado todavía las herramientas necesarias para considerar dichos aspectos. Sin embargo, tenemos ya la base

    ( ) ( ) ( ) ( )1

    01

    n

    kn y n x k x n

    -

    =

    + = +å

    ( ) ( )1ny n x n= - +

    ( ) ( ) ( )111 1

    ny n y n x nn n

    = - ++ +

  • 25

    necesaria para estudiar algunos esquemas de implementación paa la realización de sistemas descritos mediante ecuaciones en diferencias lineales de coeficientes constantes.

    9.1 Realización de sistemas FIR recursivos y no recursivos Ya hemos distinguido entre sistemas FIR y sistemas IIR, según la duración de la respuesta impulsional h(n) del sistema sea finita o infinita. Tambien hemos distinguido ya entre sistemas recursivos y no recursivos. Básicamente, un sistema recursivo causal queda descrito por una relación de entrada-salida de la forma

    (9.1)

    Y mediante un sistema lineal invariante en el tiempo, por la ecuación en diferencias

    (9.2)

    Por otra parte, los sistemas causales no recursivos no dependen de valores pasados de la salida y, por tanto, quedan descritos por una relación entrada-salida de la forma

    (9.3)

    Y mediante un sistema lineal invariante en el tiempo por la ecuación (9.2) con ak = 0 para k = 1,2,…,N. Ya vimos que los sistemas FIR siempre pueden realizarse como sistemas no recursivos. De hecho, con ak = 0, k = 1,2,…,N, en (9.2), tenemos una relación de entrada-salida de la forma

    (9.4)

    Éste es un sistema FIR no recursivo, todo sistema FIR puede realizarse de forma no recursiva. Por otra parte, cualquier sistema FIR puede realizarse recursivamente. En resumen, podemos considerar los términos FIR e IIR como caracteristics que distinguen dos tipos de sistemas, y los términos recursivo y no recursivo como maneras de describir la realización o implementación de sistemas.

    10. La transformada z directa

    La transformada z de una señal discreta x(n) se define como la serie de potencias

    (10.1) Donde z es una variable compleja. La relación (10.1) se denomina a veces transformada z directa porque transforma una señal en el dominio del tiempo x(n) a partir de X (z), se denomina transformada z inversa.

    ( ) ( ) nn

    x z X n z¥

    -

    =-¥

    º å

    ( ) ( ) ( ) ( ) ( )1 ,..., , ,...,y n F y n y n N x n x n M= - - -é ùë û

    ( ) ( ) ( )1 0

    N M

    k kk k

    y n a y n k b x n k= =

    = - - + -å å

    ( ) ( ) ( ) ( ), 1 ,...,y n F x n x n x n M= - -é ùë û

    ( ) ( )0

    M

    kk

    y n b x n k=

    = -å

  • 26

    Por conveniencia, la transformada z de una señal x(n) se denota por

    (10.2) mientras que la relación entre x(n) y X (z) se indica mediante

    (10.3) Dado que la transformada z es una serie infinita de potencias, esta existe solo para aquellos valores de z para los que la serie converge. La región de convergencia (ROC, region of convergence) de X (z) es el conjunto de todos los valores de z para los que X (z) es finita. Por lo tanto, siempre que hablemos de una transformada z debemos indicar también su ROC. Desde un punto de vista matemático, la transformada z es simplemente una forma alternativa de presentar una señal. En muchos casos la suma, finita o infinita, correspondiente a una transformada z puede expresarse de forma compacta. En estos casos, la transformada z produce una representación alternativa y compacta de una señal. Expresemos la variable compleja z en su forma polar

    (10.4)

    donde r = ½z½y q = . z Entonces X (z) se puede expresar como

    En la ROC DE X (z)½X(z)½

  • 27

    Si X(z) converge en alguna region del plano complejo, entonces los dos sumatorios de (10.6) tienen que ser finitos en esta región. Si el primer sumatorio de (10.6) converge, entonces existen valores de r lo suficientemente pequeños como para que la secuencia producto x (-n)r-n , 1 £ n < ¥ , sea absolutamente sumable. Por lo tanto, la ROC de la primera suma consiste en una circunferencia de radio r1 tal que r1< ¥ , como se ilustra en la figura 15a. por otra parte, si la segunda suma de (10.6) converge, entonces existen valores de r lo suficientemente grandes como para que la secuencia producto x (n) ¤ r-n , 0 £ n < ¥ , sea absolutamente sumable. De aquí que la ROC correspondiente a la segunda suma de (10.6) consista en todos los puntos que están fuera de una circunferencia de radio r > r2, tal como se ilustra en la figura 15b. Dado que la convergencia de X (z) exige que las dos sumas de (10.6) sean finitas, tenemos que la ROC de X (z) es, en general, la región anular del plano z r2 r1, entonces no existe región de convergencia común para las dos sumas y de aquí, que X (z) no exista. Una señal discreta x (n) queda unívocamente determinada por su transformada z, X(z), y la región de convergencia de X(z). Un caso especial de una señal bilateral es una señal de duración infinita por la derecha, pero no por la izquierda (esto es, x (n) = 0 para n < n0 < 0). Un segundo caso es el de la señal de duración infinita por la izquierda pero o por la derecha ( es decir, x (n) = 0 para n < n1< 0). Un tercer caso es el de una señal de duración finita, tanto por la derecha como por la izquierda. Estas señales se suelen denominar respectivamente señales infinitas por la derecha, por la izquierda y señales de duración finita por la derecha y por la izquierda. Mencionamos que la transformada z definida por (10.1) se conoce a veces como la transformada z bilateral para distinguirla de la transformada z unilateral, dada por

    Si x (n) es causal (es decir, x (n) = 0 para n < 0), las transformadas z unilateral y bilateral son equivalentes. En cualquier otro caso, son diferentes.

    ( ) ( )0

    n

    nX z x n z

    ¥+ -

    =

    Im(z)

    Re(z)

    Plano z

    Región de convergencia de (a)

    r1

    ( )1

    n

    nx n r

    ¥

    =

  • 28

    Fig.15 Región de convergencia de X(z) y sus correspondientes partes causales y anticausales.

    10.1 La transformada z inversa

    Si tenemos la transformada z de una señal y queremos determinar la señal. El procedimiento para transformar desde el dominio z al dominio del tiempo se denomina transformada z inversa. La formula para obtener x (n) a partir de X(z) se puede obtener usando el teorema integral de Cauchy, que es un teorema muy importante dentro de la teoría de variable compleja.

    Im(z)

    Re(z)

    Plano z

    (b)

    r2

    Región de convergencia de ( )

    0n

    n

    x nr

    ¥

    Im(z)

    Re(z)

    Plano z

    (c)

    r1

    R2

    Región de convergencia de ( )X z

    2 1r r r<

  • 29

    Tenemos la transformada z definida por (10.1) como

    (10.7)

    Supongamos que multiplicamos ambos lados de (10.7) por zn-1 y los integramos sobre un contorno cerrado en el interior de la ROC y que contiene al origen. Así tenemos

    (10.8)

    Donde C denota el contorno cerrado en el interior de la ROC de X(z), recorrido en sentido contrario a las agujas del reloj. Dado que la serie converge en los puntos de este contorno, podemos intercambiar el orden de las operaciones suma e integral de la parte derecha de (10.8). Así (10.8) se convierte en

    (10.9) Ahora, podemos emplear el teorema integral de Cauchy, que dice que

    (10.10) Donde C es cualquier entorno que encierre al origen. Aplicando (10.10), la parte derecha de (10.9) se reduce a 2pjx(n) y de aquí obtenemos

    (10.11)

    10.2 Propiedades de la transformada z La transformada z es una herramienta muy potente para el estudio de señales y sistemas discretos. La potencia de esta transformación es consecuencia de algunas propiedades muy importantes que tiene. Deberá recordarse que la ROC resultante cuando combinamos varias transformadas z es, cuando menos, la intersección entre las transformadas individuales.

    ( )( ) kk

    X z x k z¥

    -

    =-¥

    = å

    ( ) ( )1 1n n kk

    X z z dz x k z dz¥

    - - -

    =-¥

    = åò òÑ Ñ

    ( ) ( )1 1n n kK

    X z z dz x k z dz¥

    - - -

    =-¥

    = åò òÑ Ñ

    k = n k ≠ n

    1 1,10,2

    n kz dzjp

    - - ì= íî

    òÑ

    11( ) ( )2

    nx n X z z dzjp

    -= òÑ

  • 30

    Linealidad Si

    y entonces

    (10.12) para cualquier constantes a1 y a2. La propiedad linealidad se puede generalizar a un numero arbitrario de señales. Así, la propiedad de linealidad nos permite obtener la transformada z de una señal expresando ésta como la suma de varias señales elementales cuyas transformadas z son conocidas. Desplazamiento en el tiempo Si entonces

    (10.13) La ROC de z-k X (z) es la misma que la de X (z), excepto por z = 0, si k > 0, y z = ¥ , si k < 0.esta propiedad se demuestra directamente a partir de la definición de la transformada z dada en (10.1). Las propiedades de linealidad y desplazamiento en el tiempo son las características clave que hacen que la transformada z sea extraordinariamente útil para el análisis de sistemas discretos LTI. Escalado en el dominio z Si Entonces

    (10.14) Para cualquier constante a, real o compleja. Demostración .de la definición (10.1)

    ( ) ( )1 1x n X z«

    ( ) ( )2 2x n X z«

    ( ) ( ) ( ) ( ) ( ) ( )1 1 2 2 1 1 2 2x n a x n a x n X z a X z a X z= + « = +

    ( ) ( )x n X z«

    ( ) ( )kx n k z X z-- «

    ( ) ( )x n X z« 1 2:ROC r z r< <

    ( ) ( )1na x n X a z-« 1 2:ROC a r z a r< <

    ( ){ } ( ) ( )( )1 nn n nn n

    Z a x n a x n z x n a z¥ ¥ -- -

    =-¥ =-¥

    = =å å

    ( )1X a z-=

  • 31

    Dado que la ROC de X(z) es r1 < ½z½< r2, la ROC de X(a-1 z) es

    o

    Para entender mejor el significado y las consecuencias de la propiedad de escalado expresamos a y z en forma polar como a = r0ejw0, z = rejw e introducimos la nueva variable compleja w = a-1z. Por lo tanto, Z{( x) n}= X (z), y Z{anx( n)}= X (w). Podemos ver fácilmente que Este cambio de variables se traduce en la contracción (si r0 > 1) o la expansión (si r0 < 1) del plano z en combinación con una rotación (si w0 ¹ 2kp). Esto explica por que cambia la ROC cuando ½a½< 1. el caso ½a½= 1, es decir, a = ejw0 es de especial interés, ya que implica solamente una rotación del plano z. Inversión temporal Si entonces

    (10.15) Demostración. De (6.1), tenemos

    Donde hacemos el cambio de variable l =-n. La ROC de X (z-1)

    o equivalentemente Observe que la ROC de x(n) es la inversa de la correspondiente a x(n). Esto significa que si z0 pertenece a la ROC de x(n), entonces 1¤ z0 pertenece a la ROC de x(-n) . Si se considera (10.15) cuando reflejamos una señal, el coeficiente de z-n se convierte en el coeficiente de zn. Por tanto, reflejar una señal es equivalente a reemplazar z por z-1 en la formula de la transformada. Una reflexión en el dominio del tiempo se corresponde con una inversión en el dominio z.

    11 2r a z r

    -< <

    1 2a r z a r< <

    ( )01

    0

    1 ja z r er

    w ww --æ ö

    = =ç ÷è ø

    ( ) ( )x n X z« 1 2:ROC r z r< <

    ( ) ( )1x n X z-- «2 1

    1 1:ROC zr r< <

    ( ){ } ( ) ( )( ) ( )11 1nn t

    Z x n x n z x l z X z¥ ¥ -- - -

    =-¥ =-¥

    - = - = =å å

    11 2r z r

    -< <2 1

    1 1zr r<

  • 32

    Diferenciación en el dominio z Si entonces

    (10.16) Demostración. Diferenciando ambos lados de (10.1), tenemos Observe que ambas transformadas tienen la misma ROC. Convolución de dos secuencias Si entonces

    (10.17) La ROC de X (n) es, cuando menos, la intersección de las de X1 (z) y X2 (z). Demostración. La convolución de x1 (n) y x2 (n) se define como La transformada de z de x(n) es

    Intercambiando el orden de los sumatorios y aplicando la propiedad de desplazamiento en el tiempo en (10.13), obtenemos Correlación de dos secuencias Si

    ( ) ( )x n x z«

    ( )( )

    dX znx n z

    dz« -

    ( ) ( )( ) ( )

    1 1

    2 2

    x n X z

    x n X z

    «

    «

    ( ) ( ) ( ) ( ) ( )21 2 1

    * ( )x n x n x n X z X z X z= « =

    ( ) ( ) ( )1 2k

    x n x k x n k¥

    =-¥

    = -å

    ( ) ( ) ( )1 2( ) n nn n k

    X z x n z x k x n k z¥ ¥ ¥

    - -

    =-¥ =-¥ =-¥

    é ù= = -ê ú

    ë ûå å å

    ( ) ( ) ( )1 2 nk n

    X z x k x n k z¥ ¥

    -

    =-¥ =-¥

    é ù= -ê ú

    ë ûå å

    ( ) ( ) ( ) ( )2 1 2 1kk

    x z x k z X z X z¥

    -

    =-¥

    = =å

    ( ) ( )( ) ( )

    1 1

    2 2

    x n X z

    x n X z

    «

    «

    ( ) ( )( ) ( )1 1n nn n

    dX zx n n z z nx n z

    dz

    ¥ ¥- - - -

    =-¥ =-¥

    é ù= - = - ë ûå å

  • 33

    entonces

    (10.18) Demostración. Recordemos que Usando las propiedades de la convolución y la inversión temporal, obtenemos

    La ROC de Rx1x2 (z) es, como mínimo, la intersección de las X1 (z) y X2 (z-1). Como en el caso de la convolución, la correlación cruzada de dos señales se hace mas fácilmente según la multiplicación polinómica de (10.18) e invirtiendo después el resultado.

    11. Transformadas z racionales Una familia importante de transformadas z es aquella en la que X(z) es una función racional, esto es, el cociente de dos polinomios en z-1 (ó z). A continuación se discutirán algunos aspectos importantes relacionados con las transformadas z. Polos y ceros Los ceros de la transformada z X (z) son los valores de z para los cuales X (z) = 0. Los polos de una transformada z son los valores de z para los cuales X (z) = ∞. Si X (z) es una función racional, entonces

    (11.1)

    Si a0 ≠ 0 y b0 ≠ 0, podemos evitar las potencias negativas de z sacando como factor común los términos b0z-M y a0z-N, como sigue:

    Dado que N(z) y D(z) son polinomios en z, se pueden expresar en forma de productos como

    (11.2)

    ( ) ( ) ( )1 2 1 2

    *x xr l x l x l= -

    () ( ) ( ) ( ) ( ) ( )1 2 1 2 11 2 1 2x x x xn

    r l x n x n l R z X z X z¥

    -

    =-¥

    = - « =å

    ( ) ( ){ } ( ){ } ( ) ( )1 2 11 2 1 2x xR z Z x l Z x l X z X z-= - =

    ( ) ( )( )1

    0 1 01

    0 1

    0

    Mk

    M kM k

    NNkN

    kk

    b zN z b b z b zX zD z a a z a z a z

    -- -

    =- -

    -

    =

    + +×××+= = =

    + +×××+

    å

    å

    ( ) ( )( )( )( )

    11 0 00

    10 1 0 0

    / // /

    M MMM

    N N NN

    N z z b b z b bb zX zD z a z z a a z a a

    --

    - -

    + +×××+= =

    + +×××+

    ( ) ( )( )( )( ) ( )( )( ) ( )

    ( )( )

    ( )

    1 20

    0 1 2

    1

    1

    MM N

    N

    M

    kN M kN

    kk

    N z z z z z z zbX z zD z a z p z p z p

    z zX z Gz

    z p

    - +

    - =

    =

    - - ××× -= =

    - - ××× -

    Õ -=

    Õ -

  • 34

    Donde G ≡ b0/a0. Así, X (z) tiene M ceros en z = z1, z2, … , zM (las raíces del polinomio del numerador), N polos en z = p1, p2, … , pN (las raíces del polinomio del denominador), y |N – M| ceros (si N > M) o polos (si N< M) en el origen z = 0. También pueden encontrarse polos o ceros en z = ∞. Existe en cero en z = ∞, si X (∞) = 0 y existe un polo en z = ∞, si X (∞) = ∞. Si contamos los polos y ceros, incluyendo los que están en z = 0 y en el infinito, encontramos que X (z) tiene exactamente el mismo número de polos que de ceros. Podemos representar gráficamente X (z) mediante un diagrama de polos y ceros en el plano complejo, que muestra la localización de los polos mediante cruces (x) y la de los ceros mediante círculos (o). La multiplicidad, tanto de polos como de ceros se indica mediante un número al lado de la correspondiente cruz o círculo. Evidentemente, por definición, la ROC de una transformada z no puede contener ningún polo. La transformada z X (z) es una función compleja de la variable compleja z = Re(z) + jIm(z). Evidentemente, |X(z)|, el módulo de X (z), es una función real y positiva de z. Dado que z representa un punto del plano complejo, |X(z)| es una función bidimensional y describe una “superficie”. La función de transferencia de un sistema lineal invariante en el tiempo La salida de un sistema lineal invariante en el tiempo (en reposo) para una secuencia de entrada x(n) con la respuesta impulsional del sistema. La propiedad de la convolución nos permite expresar esta relación en el dominio z como

    (11.3)

    Donde Y(z) es la transformada z de la secuencia de salida y(n), X(z) es la transformada z de la secuencia de entrada x(n), y H(z) es la transformada z de la respuesta impulsional h(n). Si conocemos h(n) y x(n), podemos determinar sus transformadas z, H(z) y X(z), multiplicarlas para obtener Y(z), y así determinar y(n) calculando la transformada z inversa de Y(z). Alternativamente, si conocemos x(n) y obtenemos la salida del sistema y(n), podemos determinar la respuesta impulsional del sistema obteniendo en primer lugar H(z) según la relación

    (11.4)

    y calculando después la transformada z inversa de H(z). Como

    (11.5)

    Esta claro que H(z) representa la caracterización del sistema en el dominio z, mientras que h(n) es la caracterización correspondiente en el dominio del tiempo. En otras palabras, H(z) y h(n) son descripciones equivalentes del sistema, cada una en un dominio. La transformada H(z) se denomina función de transferencia del sistema.

    ( ) ( ) ( )Y z H z X z=

    ( ) ( )( )Y z

    H zX z

    =

    ( ) ( ) nn

    H z h n z¥

    -

    =-¥

    = å

  • 35

    La relación (11.4) es de especial utilidad para obtener H(z) cuando se describe el sistema mediante una ecuación lineal en diferencias con coeficientes constantes de la forma

    (11.6)

    En este caso, la función de transferencia se puede obtener directamente de (11.6) calculando la transformada z inversa en ambos lados e (11.6). Por tanto, aplicando la propiedad de desplazamiento en el tiempo, obtenemos

    O, equivalentemente,

    (11.7) De esta forma, un sistema lineal invariante en el tiempo descrito por una ecuación en diferencias con coeficientes constantes, tiene una función de transferencia racional. Ésta es, en general, la forma de la función de transferencia de un sistema descrito por una ecuación en diferencias lineal con coeficientes constantes. De esta forma general obtenemos dos clases especiales muy importantes. La primera, si ak = 0, para 1 ≤ k ≤ N, se reduce a

    (11.8)

    En este caso, H(z) contiene M ceros, cuyos valores están determinados por los parámetros del sistema {bk}, y un polo de orden M en el origen z = 0.Dado que el sistema contiene M polos triviales en z = 0 y M ceros no triviales, se le denomina sistema de todo ceros. Evidentemente, un sistema así tiene una respuesta impulsional de duración finita (FIR, finite impulse response), y se denomina sistema FIR o sistema FIR o sistema de media móvil (sistema MA).

    ( ) ( ) ( )1 0

    N M

    k kk k

    y n a y n k b x n k= =

    = - - + -å å

    ( ) ( ) ( )

    ( ) ( )

    ( )( )

    1 0

    1 0

    0

    1

    1

    1

    N Mk k

    k kk k

    N Mk k

    k kk k

    Mk

    kk

    Nk

    kk

    Y z a Y z z b X z z

    Y z a z X z b z

    b zY zX z a z

    - -

    = =

    - -

    = =

    -

    =

    -

    =

    = - +

    æ ö æ ö+ =ç ÷ ç ÷è ø è ø

    =+

    å å

    å å

    å

    å

    ( ) 0

    11

    Mk

    kk

    Nk

    kk

    b zH z

    a z

    -

    =

    -

    =

    =+

    å

    å

    ( )0

    0

    1

    Mk

    kk

    MM k

    kMk

    H z b z

    b zz

    -

    =

    -

    =

    =

    =

    å

    å

  • 36

    Por otra parte, si bk = 0 para 1 ≤ k ≤ M, la función del sistema se reduce a

    (11.9) En este caso, H(z) contiene N polos, cuyos valores quedan determinados por los parámetros del sistema {ak} y un cero de orden N en el origen z = 0. Normalmente, no haremos referencia a estos ceros triviales. En consecuencia, la función dada en (11.9) contiene sólo polos no triviales y el sistema correspondiente se denomina sistema de polos y ceros. Debido a la presencia de los polos, la respuesta impulsional del sistema es de duración infinita y se trata, por tanto, de un sistema IIR (infinite impulse response). La forma general de la función de transferencia dada por (11.7) contiene tanto polos como ceros y, por ello, el sistema correspondiente se denomina sistema de polos y ceros, con N polos y M ceros. Los polos y/o ceros, tanto en z = 0 como en z = ∞, no se cuentan explícitamente. Debido a la presencia de polos, un sistema de polos y ceros es un sistema IIR. Polos de orden múltiple y estabilidad Una condición necesaria y suficiente para que un sistema lineal e invariante en el tiempo causal sea estable BIBO es que todos sus polos pertenezcan al interior de la circunferencia unidad. La señal de entrada está acotada si su transformada z contiene polos {qk}, k = 1, 2, …, L, satisfaciendo la condición ½qk½≤ 1 para todo k. Es importante destacar que la respuesta del sistema también está acotada, incluso cuando la señal de entrada contiene uno o mas polos distintos sobre la circunferencia unidad. En vista de que una señal de entrada acotada puede tener polos sobre la circunferencia unidad, podría parecer que un sistema estable puede también tener polos sobre la circunferencia unidad. Sin embargo, éste no es el caso, ya que tal sistema produce una respuesta no acotada cuando se excita con una señal de entrada que también tiene un polo en la misma posición de la circunferencia unidad, lo que se ilustra en el siguiente ejemplo. Determine la respuesta al escalón del sistema causal descrito por la ecuación en diferencias

    La función de transferencia es, en este caso,

    a0 ≡ 1

    ( ) 0

    1

    0

    0

    1N

    kk

    kN

    NN k

    kk

    bH za z

    b z

    a z

    -

    =

    -

    =

    =+

    =

    å

    å

    ( ) 11

    1H z

    z-=

    -

    ( ) ( 1) ( )y n y n x n= - +

  • 37

    Vemos que el sistema tiene un polo sobre la circunferencia unidad en z = 1. La transformada z de la señal de entrada x(n) = u(n) es

    Que también contiene un polo en z = 1. Por tanto, la señal de salida tiene la transformada

    Que contiene un polo doble en z = 1 La transformada Z inversa de Y(z) es

    Secuencia que es una rampa. Así, pues, y(n) no está acotada, aunque lo esté la entrada. Por tanto, el sistema es inestable. Se demuestra claramente que la estabilidad BIBO requiere que los polos del sistema estén estrictamente dentro de la circunferencia unidad. Si todos los polos del sistema estén estrictamente dentro de la circunferencia unidad y la secuencia de excitación x(n) contiene uno o más polos que coinciden con los del sistema, la salida Y(z) contendrá polos de orden múltiple. Como se ha indicado anteriormente, tales polos de orden múltiple resultan en una secuencia de salida que contiene términos de la forma

    Donde 0 ≤ b ≤ m – 1 y m es el orden del polo. Si ½pk½ < 1, estos términos decaen hacia cero a medida que n tiende a infinito porque el factor exponencial (pk)n domina al término nb. Por tanto, no existe ninguna señal de entrada acotada que pueda producir una salida no acotada si todos los polos del sistema están dentro de la circunferencia unidad. Finalmente, debemos decir que los únicos sistemas útiles que contiene polos sobre la circunferencia unidad son los osciladores digitales, a tales sistemas se les denomina marginalmente estables.

    12. Análisis frecuencial de señales y sistemas La transformada de Fourier es una de las diferentes herramientas útiles en el análisis y diseño de sistemas LTI. Otra son las series de Fourier. Estas representaciones de señales implican básicamente la descomposición de las mismas en términos de componentes sinusoidales (o exponenciales complejas). Con esta descomposición, se dice que una señal esta representada en el dominio de la frecuencia.

    ( ) 11

    1X z

    z-=

    -

    ( ) ( ) ( )

    ( )211

    1

    Y z H z x z

    z-

    =

    =-

    ( ) ( ) ( )1y n n u n= +

    ( ) ( )nbk kA n p u n

  • 38

    La mayor parte de las señales se pueden descomponer en la suma de componentes sinusoidales. Para la clase de señales periódicas, esta descomposición se denomina una serie de Fourier .Para la clase de señales de energía finita, la descomposición se denomina transformada de Fourier ambas descomposiciones son extremadamente importantes en el análisis de sistemas LTI porque la respuesta de un sistema LTI a una señal de entrada sinusoidal es una sinusoide de la misma frecuencia pero de diferente amplitud y fase. Además, la propiedad de linealidad de los sistemas LTI implica que la suma lineal de sus componentes sinusoidales a la entrada produce una suma similar de componentes sinusoidales a la salida, que difieren únicamente en las amplitudes y fases de las sinusoides en la entrada. Este comportamiento característico de los sistemas LTI hace que la descomposición sinusoidal de señales sea muy importante. Aunque son posibles muchas otras descomposiciones, sólo la clase de señales sinusoidales (o exponenciales complejas) posee esta interesante propiedad al pasar a través de un sistema LTI.

    12.1 Análisis frecuencial de señales en tiempo continuo Sabemos que se puede usar un prisma para descomponer la luz blanca (luz solar) en los colores del arco iris. Isaac Newton empleo el termino espectro para describir las bandas continuas de colores producidas por este aparato. Para entender este fenómeno, Newton coloco otro prisma invertido con respecto al primero y demostró que los colores volvían a mezclarse para producir luz blanca, como en la figura 10b. Insertando una ranura entre los dos prismas y bloqueando la incidencia de uno o mas colores sobre el segundo prisma, mostró que la luz vuelta a combinar ya no era blanca. Por tanto, la luz que pasa a través del primer prisma es simplemente descompuesta en sus colores componentes sin ningún otro cambio. Sin embargo, sólo si volvemos a mezclar otra vez todos los colores obtenemos la luz original. Mas tarde, Joseph Fraunhofer (1787-1826), cuando realizaba mediciones de la luz emitida por el sol y las estrellas, descubrió que el espectro de la luz observada contenía líneas de colores diferentes. Unos años después, a mediados del siglo XVIII, Gustav Kirchhoff y Robert Bunsen descubrieron que cada elemento químico, cuando era calentado hasta la incandescencia, radiaba su propio color de luz. Como consecuencia, cada elemento químico se puede identificar mediante sus propias líneas espectrales. De la física sabemos que cada color se corresponde con una frecuencia específica del espectro visible. De hecho, la descomposición de la luz en sus colores en una forma de análisis frecuencial. El análisis frecuencial de una señal conlleva la separación de la señal en sus componentes (sinusoidales) frecuenciales. En lugar de luz, nuestras formas de onda son básicamente funciones temporales. El papel del prisma es desempeñado por las herramientas de análisis de Fourier que desarrollaremos: las series de Fourier y la transformada de Fourier. La recombinación de las componentes sinusoidales para reconstruir la señal original es básicamente un problema de síntesis de Fourier. El problema del análisis de señales es básicamente idéntico para el caso de una forma de onda y el de la luz procedente de compuestos químicos calentados. Como en el caso de compuestos químicos, formas de

  • 39

    onda diferentes tienen diferentes espectros. Por ello, el espectro provee una “identidad” o firma de la señal en el sentido de que ninguna otra señal tiene el mismo espectro. Como veremos, este atributo está relacionado con el tratamiento matemático de las técnicas en el dominio de la frecuencia. Si descomponemos una forma de onda en sus componentes sinusoidales, de forma similar a como un prisma separa la luz blanca en sus diferentes colores, la suma de estas componentes sinusoidales resulta en la forma de onda original. Por otra parte, si alguna de estas componentes desaparece, el resultado es una señal diferente. En nuestro tratamiento del análisis frecuencial, desarrollaremos las herramientas matemáticas adecuadas para la descomposición de señales en componentes funcionales sinusoidales. Además, desarrollaremos las herramientas para la síntesis de una señal dada a partir de sus componentes frecuenciales. El objetivo básico al desarrollar herramientas de análisis frecuencial es proporcionar una representación matemática y pictórica para las componentes frecuenciales contenidas en una cierta señal. Como en la Física, el termino espectro se emplea al referirse al contenido en frecuencia de una señal. El proceso de obtención del espectro de una señal dada, usando las herramientas matemáticas básicas, se conoce como análisis frecuencial o espectral. A su vez, el proceso de determinación del espectro de una señal en la práctica, basado en mediciones reales de la señal, se denomina estimación espectral. Esta distinción es muy importante. En un problema practico, la señal que esta siendo analizada no conduce a una descripción matemática exacta. La señal suele ser portadora de cierta información que intentamos extraer. Si esta información que deseamos extraer se puede obtener directa o indirectamente a partir del contenido espectral de la señal, hacemos estimación espectral sobre la señal que porta la información y así obtenemos una estima del espectro de la señal. De hecho, podemos ver la estimación espectral como un tipo de análisis espectral realizado sobre señales obtenidas de fuentes físicas. Los instrumentos o programas de software empleados para obtener estimas espectrales de tales señales se conocen como analizadores espectrales.

    12.2 Densidad espectral de energía de señales aperiódicas Sea x ( t ) una señal de energía finita con transformada de Fourier X(F). Su energía es

    Que a su vez puede expresarse en términos de X (F) como sigue:

    ()ò¥

    ¥-

    = dttxEx2

    () ()

    () ( )ò ò

    ò¥

    ¥-

    ¥-

    ¥

    ¥-

    úû

    ùêë

    é=

    =

    dFeFXdttx

    dttxtxE

    Ftj

    x

    p2*

    *

  • 40

    Por tanto concluimos que

    (12.1)

    Esta es la relación de Parseval para señales aperiódicas de energía finita y expresa el principio de conservación de la energía en los dominios del tiempo y la frecuencia. El espectro X(F) de una señal es, en general, complejo. En consecuencia, suele expresarse en forma polar como Donde X(F) es el módulo del espectro y q(F) su fase,

    q(F) = ÐX(F)

    Por otra parte, la cantidad (12.2)

    que es el integrando de (12.1), representa la distribución de energía de la señal en función de la frecuencia. De aquí que Sxx(F) se denomine densidad espectral de energía de x(t). La integral de Sxx(F) sobre todas las frecuencias nos da la energía total de la señal. De otra forma, la energía de la señal x(t) sobre una banda de frecuencias F1 £ F £ F1 + DF es En (12.2) vemos que Sxx(F) es estrictamente real y no negativo. Dado que el espectro de fase de X(t) no se encuentra en Sxx(F), es imposible reconstruir la señal dada Sxx(F). Finalmente, como en el caso de las series de Fourier, puede demostrarse fácilmente que si la señal x(t) es real, entonces

    (12.3)

    (12.4)

    Combinando (12.2) y (12.3) obtenemos

    (12.5) En otras palabras, la densidad espectral de energía de una señal real tiene simetría par.

    ( ) ()ò ò¥

    ¥-

    ¥

    ¥-

    -úû

    ùêë

    é= dtetxdFFX Ftj p2*

    ( )ò¥

    ¥-

    = dFFX 2

    () ( )ò ò¥

    ¥-

    ¥

    ¥-

    == dFFXdttxEx22

    ( ) )()( FjeFXFX q=

    ( )òD+ FF

    Fxx dFFS

    1

    1

    ( ) ( )2FXFSxx =

    ( ) ( )( ) ( )FXFX

    FXFX-Ð=-Ð

    =-

    ( ) ( )FSFS xxxx =-

  • 41

    13. Muestreo en el dominio de la frecuencia: la transformada de Fourier discreta

    Antes de introducir la DFT, consideraremos el muestreo de la transformada de Fourier de una secuencia aperiodica en el tiempo discreto. Así, estableceremos la relación entre la transformada de Fourier discreta y la DFT. Muestreo en el dominio de la frecuencia y reconstrucción de señales en tiempo discreto Recordemos que las señales aperiodicas de energía finita tienen espectros continuos. Consideremos dicha señal aperiodica en tiempo discreto x(n), con transformada de Fourier

    (13.1)

    supongamos que muestreamos X(w) periódicamente con un espacio en frecuencia dw radianes entre muestras sucesivas. Dado que X(w) es periódica de periodo 2p, solo necesitaremos las muestras del periodo fundamental, por conveniencia, tomaremos N muestras equidistantes en el intervalo 0 ≤ w < 2p, espaciadas dw = 2p / N, como se muestra en la figura 15. Si se considera en primer lugar la elección de N, el numero de muestras en el dominio de la frecuencia. Si calculamos (13.1) en w = 2pk / N, obtenemos

    K = 0,1,…,N -1 (13.2)

    El sumatorio (13.2) puede subdividirse en un mundo infinito de sumatorios, donde cada uno contiene N términos. Por lo tanto,

    Si cambiamos el índice del sumatorio interior de n a n- lN e intercambiamos el orden de los sumatorios, obtenemos el resultado

    (13.3) para k = 0,1,2,…, N-1.

    2 12 /( ) ...

    Nj kn N

    n Nx n e p

    --

    =

    + +å

    1 12 /( )

    N Nj kn N

    l n lNx n e p

    ¥ + --

    =-¥ =

    = +å å

    ( ) ( )j n

    nX x n e

    - w¥

    =-¥

    w = å

    2 /2 ( ) j kn Nn

    X k x n eN

    pp -¥ -=-¥

    æ ö=ç ÷è ø

    å

    1 12 / 2 /

    0

    2 ... ( ) ( )N

    j kn N j kn N

    n N nX k x n e x n e

    Np pp - -- -

    =- =

    æ ö= + +ç ÷è ø

    å å

    12 /

    0

    2 ( )N

    j kn N

    n lX k x n lN e

    Npp - ¥ -

    = =-¥

    é ùæ ö= -ç ÷ ê úè ø ë ûå å

  • 42

    La señal (13.4)

    obtenida repitiendo periódicamente x(n) cada N muestras, es evidentemente periódica de periodo fundamental N. por tanto, puede desarrollarse en serie de Fourier como

    n = 0,1,…, N – 1 (13.5)

    con coeficientes de Fourier

    k = 0,1,…, N – 1 (13.6)

    Comparando (13.3) con (13.6), concluimos que

    k = 0,1,…, N – 1 (13.7)

    Por lo tanto,

    n = 0,1,…, N – 1 (13.8)

    la relación dada en (13.8) nos proporciona la reconstrucción de la señal periódica xp(n) a partir de las muestras del espectro X(w).sin embargo, no implica que se puedan recuperar X(w) ò x(n) a partir de las muestras. Para obtener esto necesitamos considerar la relación entre xp(n) y x(n). Dado que xp(n) es la extensión periódica de x(n) tal como se da en (13.4),esta claro que x(n) puede ser recuperada a partir de xp(n), si no existe aliasing en el dominio del t