101
Fundamentos de Se˜ nales y Sistemas Notas de Clase Antoni Morell y Rosana Rodr´ ıguez Universitat Aut` onoma de Barcelona (UAB) Escola d’Enginyeria

Apuntes Señales y Sistemas (UAB)

Embed Size (px)

DESCRIPTION

Apuntes Señales y Sistemas (UAB)

Citation preview

Fundamentos de Senales y Sistemas

Notas de Clase

Antoni Morell y Rosana Rodrıguez

Universitat Autonoma de Barcelona (UAB)Escola d’Enginyeria

i

Indice general

1. Introduccion a Senales y Sistemas 1

2. La Transformada de Laplace 18

3. Funcion de Transferencia de un Sistema 41

4. La Transformada de Fourier 57

5. Correlacion y Espectro de Senales Deterministas 85

ii

Tema 1: Introduccion a Senales y Sistemas

Antoni Morell y Rosana Rodrıguez

24 de febrero de 2014

1. Senales

Definicion de senal: Imagen o representacion de algo. Para nosotros sera casi siempre la repre-

sentacion de una magnitud fısica (tension, voltaje, etc.) y normalmente llevara un mensaje asociado

(entendiendo mensaje como la manifestacion fısica de la informacion tal y como la produce la fuente).

En un sistema de comunicaciones esto esta claro.

1.1. Clasificacion de senales

Encontramos diferentes clasificaciones. Las mas relevantes son:

Determinista/aleatoria

Determinista: conocida para ∀t. P. ej.: x(t) = A cos(w0t).

Aleatoria: No es posible determinar su valor para un instante t = t0. No obstante, sı sabemos algo

sobre dicho valor, aunque se trata de un conocimiento probabilıstico. P. ej.:A cos(w0t+φ), φ[0, π4 ].

En la figura vemos una realizacion de la senal para φ = 0 (trazo continuo) y otra para φ = π4

(trazo discontinuo). Nuestra senal puede ser cualquiera de entre estas dos con igual probabilidad,

pero nunca con otro desfase φ ∈ (π4 , 2π).

0 2 4 6 8 10 12 14 16 18 20−A

0

A

Figura 1: Ejemplo de senal aleatoria.

1

Periodica/No periodica

Periodica: x(t) = x(t+mT0) para m = 0,±1,±2, . . .. T0 es el menor periodo de repeticion posible.

P.ej., en la figura anterior T0 = 2π y no 4π aunque este ultimo tambien cumpla la condicion.

No periodica: no se repite periodicamente.

Contınua/Discreta

Contınua: definida para ∀t.

Discreta: definida solo para los instantes de tiempo nT con n entero. Ej.: el ındice de la bolsa.

Analogica/Digital

Analogica: la amplitud de la senal puede tomar cualquier valor. P. ej.: musica grabada en un

disco LP.

Digital: la amplitud de la senal no puede ser cualquiera sino un valor dentro de un conjunto de

valores posibles. Por lo tanto, conocemos algo de la estructura de la senal antes de recibirla. P.

ej.: musica grabada en un disco CD.

1.2. Transformaciones de la variable independiente

Partiendo de una senal x(t) conocida, vemos como se modifica esta cuando se aplica alguna trans-

formacion sobre la variable independiente t. Las mas habituales son:

Reflexion: x(−t). La senal sufre un giro respecto al eje de ordenadas. En una cinta de vıdeo,

serıa reproducirla camara atras.

t t

x(−t)x(t)

Escalado: x(at). Siempre con a > 0, la senal se contrae respecto al eje de ordenadas en un factor a

si se cumple a > 1 y se expande por un factor b > 1 si a = 1b . En el primer caso, reproducirıamos

a veces mas rapido y en el segundo b veces mas lento.

t tt

x(2t)x( t2 )x(t)

Traslacion: x(t− t0) o bien x(t+ t0). En el primer caso, la senal se retasa t0 segundos mientras

que en el segundo se adelanta t0 segundos.

2

t

x(t)

t t

x(t− 1) x(t+ 1)

1 -1

Muy importante. A menudo nos encontraremos con una combinacion de transformaciones, como

por ejemplo en x(− t2 − 2). Para no equivocarse, es aconsejable seguir siempre los siguientes pasos:

Expresar la transformacion como x(k(t− t0)). En el caso de ejemplo serıa x(−12 (t+ 4)).

Hacer primero reflexion y escalado. En el ejemplo, girar y ensanchar por un factor 2.

t

x(t)

t

x(−t2 )

Finalmente, hacer la traslacion. En el ejemplo, avanzar la senal 4 unidades.

t

x(−t2 )

t

x(−t2 )

-4

Si queremos asegurarnos que la transformacion es correcta, cogemos 2 puntos faciles de reconocer

y los comprobamos. Por ejemplo, en el caso anterior, sustituimos t = −4 en x(− t2 − 2), lo que nos da

x(0). Es decir, el valor correspondiente al punto t = −4 en la senal transformada tiene que coincidir

con el valor en el origen de la senal sin transformar. En este caso es cierto, pero faltarıa mirar otro

punto para estar del todo seguros.

Relacionado con esto, vemos la definicion de la senal par e impar:

Senal par: si cumple x(t) = x(−t).

Senal impar: si cumple x(t) = −x(−t).

Toda senal se puede descomponer en parte par e impar de tal forma que x(t) = parx(t) +

imparx(t). Parte par e impar se hallan segun:

3

parx(t) =1

2(x(t) + x(−t)) (1)

imparx(t) =1

2(x(t)− x(−t)) (2)

Ejemplo:

t

1 2-1-2

t

1 2-1-2

t

1 2-1

x(t) parx(t) imparx(t)

1.3. Senales continuas basicas

Tenemos:

Funcion exponencial: x(t) = Ceat

En el caso que tanto a como C sean reales, tenemos:

Ca>0

a<0

Si ambos son complejos, es decir C = |C|ejθ y a = r + jw0, entonces x(t) = |C|ertej(w0t+θ) =

|C|ert[cos(w0t + θ) + j sin(w0t + θ)]. Se trata pues, de una senal compleja. Para representarla

graficamente, debemos dibujar parte real e imaginaria por separado (en funcion de t) o bien

modulo y fase. A continuacion vemos solo una parte de la senal, Rex(t) = |C|ert[cos(w0t+ θ)]:

r>0 r=0 r<0

Pulso rectangular: x(t) = Π(tT

)=

1 |t| < T

2

0 resto

4

Π(

tT

)

−T2

1

T2

Pulso triangular: x(t) = ∆(tT

)=

1− |t|T |t| < T

0 resto

1

T-T

∆( tT )

Funcion signo: sgn(t) =

1 t > 0

−1 t < 0

1

sgn(t)

Funcion escalon: u(t) =

1 t > 0

0 t < 0

= 1

2(1 + sgn(t))

1

u(t)

5

Funcion sinc: sinc(t) = sinπtπt

−6 −4 −2 0 2 4 6−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

Importante recordar: sinc(0) = 1 y sinc(Tt) = 0 para los multiplos de 1/T , es decir,

t = ±k/T con k ∈ N+.

Funcion delta: δ(t) =

0 t 6= 0

∞ t = 0

Podemos entender la funcion delta (de Dirac), que no es propiamente un funcion ya que δ(0)

tiene varias imagenes, como la caracterizacion matematica de un impulso. Por ejemplo, esto es

lo que sucede cuando se de un golpe con un martillo: se produce una fuerza elevada durante

un intervalo de tiempo muy pequeno. Bajo ese punto de vista, lo que realmente nos interesa es

la suma (integral) de dicha fuerza y de ahı sale la definicion formal de la funcion delta. En la

siguiente figura vemos un impulso de duracion 1/A y amplitud A, que por tanto tiene area 1. Si

reducimos progresivamente su duracion y aumentamos la amplitud con el objetivo de mantener

el area a la unidad, obtendremos la funcion delta.

1/A

A

A −→ ∞

Dicha interpretacion justifica la definicion formal de la delta, que toma forma integral. Pero

mas que la propia definicion, consideraremos una propiedad que se deriva de ella y que es∫∞−∞ δ(t)dt = 1. Hay que interpretarla como que la integral de una delta valdra 1 siempre y

cuando la delta este dentro de los lımites de integracion.

1.3.1. Propiedades de δ(t)

Son las siguientes:

1. δ(at) = 1|a|δ(t). Intuitivamente, esta claro que ensanchar o estrechar la delta no tiene ningun

efecto ya que esta tiene“ancho 0” y seguira con el mismo ancho despues de cualquier escalado.

Si hacemos la integral de δ(at) (hacer cambio de variable para ponerla en funcion de la integral

de δ(t)) veremos que se debe cumplir esta propiedad para conseguir que∫∞−∞ δ(t)dt = 1.

6

2. δ(t) = δ(−t). Se trata, por tanto, de una funcion par.

3. x(t)(δt) = x(0)δ(t). Si una funcion se multiplica por δ(t), solo nos importa el valor de la funcion

en el origen ya que el resto vale 0. Lo mismo sucede si desplazamos la delta, es decir: x(t)δ(t−t0) =

x(t0)δ(t− t0).

4. x(t) =∫∞−∞ x(τ)δ(τ− t)dτ . Multiplicamos primero x(τ) por una delta centrada en t e integramos

para todo τ , o sea∫∞−∞ x(t)δ(τ − t)dτ . Como la integral de la delta debe ser 1 y x(t) no depende

de τ , el resultado final es x(t).

De la misma manera, x(t) =∫∞−∞ x(τ)δ(t−τ)dτ . Solo hay que fijarse que δ(t−τ) (τ es la variable

independiente) se puede expresar como δ(−1(τ − t)). Segun hemos visto, esto es girar la delta

y desplazarla t unidades a la derecha. Dado que la delta es par, δ(t − τ) = δ(τ − t), y por lo

tanto estamos en la misma situacion que antes. Tambien podemos interpretar la integral como

una suma infinita de deltas, algo como “x(t) =∑∞

k=−∞ xkδ(t − tk)” (ver figura). En el lımite,

cuando la distancia entre dos deltas sea 0, tendrıamos la senal x(t).

t

t0

t1 t2t−1

x1x2

5. u(t) =∫ t−∞ δ(τ)dτ =

∫∞0 δ(τ − t)dτ .

6. δ(τ) = du(t)dt . La funcion escalon es plana para todo t (derivada 0) excepto para t = 0, donde hay

un salto abrupto de 0 a 1 con pendiente ∞. Esto se corresponde con la funcion δ(t).

7

2. Sistemas

Un sistema es una combinacion de objetos o componentes que actuan conjuntamente para cumplir

un determinado objetivo. Existen sistemas de distinta naturaleza: mecanicos, fısicos, biologicos, socia-

les, polıticos, etc. Por ejemplo, los frenos de un coche constituyen un sistema mecanico cuyo objetivo

es detener el vehıculo.

Un sistema puede ser, a su vez, subsistema de otro mayor, ası como los frenos son un subsistema

del sistema coche. A nosotros nos interesara modelar matematicamente el sistema y desde este punto

de vista, lo veremos como el proceso que transforma la senal de entrada para obtener una senal de

salida, o lo que es lo mismo: y(t) = T [x(t)].

Sistema T[ ]

x(t) y(t)

2.1. Propiedades de los sistemas

2.1.1. Linealidad

Un sistema es lineal si cumple las propiedades de superposicion y homogeneidad :

Superposicion: supongamos que y1(t) es la salida del sistema cuando la entrada es x1(t), es

decir, y1(t) = T [x1(t)]. Del mismo modo, y2(t) = T [x2(t)]. Entonces, en el caso que exista

superposicion, la salida del sistema a la suma de entradas, x1(t) + x2(t), es tambien la suma de

salidas y1(t) + y2(t). En otras palabras: T [x1(t) + x2(t)] = y1(t) + y2(t).

Homogeneidad: cuando un escalado a la entrada se traduce en el mismo escalado a la salida. Es

decir, si y1(t) = T [x1(t)], entonces T [αx1(t)] = αy1(t).

Ambas propiedades se puede resumir diciendo que un sistema es lineal si y solo si:

T [α1x1(t) + α2x2(t)] = α1y1(t) + α2y2(t) (3)

Ejemplos:

1. Un derivador, T [ ] = d ( )dt , es un sistema lineal.

Comprobacion:

T [α1x1(t) + α2x2(t)] =d

dt(α1x1(t) + α2x2(t)) = α1

dx1(t)

dt+ α2

dx2(t)

dt= α1y1(t) + α2y2(t)

2. Un sistema que saque el cuadrado de la salida, T [ ] = ( )2, no es lineal.

Comprobacion: (T [x1(t)] = y1(t) = x21(t))

T [α1x1(t) + α2x2(t)] = (α1x1(t) + α2x2(t))2 = α2

1x21(t) + α2

2x22(t) + α1α2x1(t)x2(t)

= α21y1(t) + α2

2y2(t) + α1α2x1(t)x2(t) 6= α1y1(t) + α2y2(t)

8

No cumple ni superposicion ni homogeneidad.

3. El sistema T [ ] = a( ) + b no es lineal.

Comprobacion: (T [x1(t)] = y1(t) = ax1(t) + b)

T [α1x1(t)+α2x2(t)] = α1a x1(t)+α2a x2(t)+b = α1y1(t)+α2y2(t)+(1−α1−α2)b 6= α1y1(t)+α2y2(t)

No cumple superposicion ni homogeneidad.

2.1.2. Invarianza

Un sistema es invariante cuando un retraso en la senal de entrada se traduce en el mismo retraso

en la senal de salida. Es decir, si T [x(t)] = y(t), entonces T [x(t− t0)] = y(t− t0).

Ejemplos:

1. T [ ] = cos( ), es un sistema invariante.

Compobacion: (y(t) = cos(x(t)))

y(t− t0) = cos(x1(t− t0)) = T [x(t− t0)]

2. T [ ] = ( ) cos(w0t), es un sistema variante.

Comprobacion: (T [x(t)] = y(t) = x(t) cos(w0t))

En primer lugar, transformamos x(t−t0): T [x(t−t0)] = x(t−t0) cos(w0t). Vemos que el resultado

depende por un lado de t y por otro de t− t0.

Ahora desplazamos y(t) sustituyendo t por t− t0, es decir, y(t− t0) = x(t− t0) cos (w0(t− t0)).Ahora el resultado solo depende de t− t0. No coinciden y por lo tanto es variante.

2.1.3. Causalidad

Un sistema es causal cuando la salida no se anticipa a la entrada, lo que significa que en un sistema

causal, la salida en un determinado instante no depende de instantes futuros de la entrada. Matemati-

camente, si x(t) = 0 para t < t0, entonces se debe cumplir y(t) = 0 para t < t0.

Ejemplos:

1. y(t) = x(t− 1) es causal ya que produce un retardo.

2. y(t) = x(t+ 1) no es causal ya que la salida se anticipa a la entrada. Por ejemplo, en el instante

t = 0, para obtener la salida y(0) necesitamos conocer x(1), o sea, un valor futuro de la entrada.

9

2.1.4. Estabilidad

Un sistema es estable cuando, para cualquier entrada acotada, la salida tambien lo es, es decir, si

|x(t)| <∞, entonces |y(t)| <∞.

Ejemplo:

Consideremos el sistema integrador T [x(t)] =∫ t−∞ x(τ)dτ . Si x(t) = Π

(t−T/2T

), tenemos:

t tT T

Por lo tanto, la salida es acotada y podrıamos pensar que es estable. No obstante, hay que com-

probarlo para cualquier entrada. Si ahora cogemos x(t) = u(t), tenemos:

t t

Entonces vemos que la salida crece indefinidamente, con lo cual el sistema es inestable.

2.2. Caracterizacion matematica de los sistemas

Ahora buscamos una forma simple y generica de obtener y(t) a partir de x(t) para cualquier

sistema. Usaremos dos caracterizaciones distintas:

A traves de ecuaciones diferenciales:

i

aidxi(t)

dti=∑

j

bjdyj(t)

dtj(4)

Es la que usaremos por ejemplo en circuitos y la respuesta del sistema dependera de las condicio-

nes en que este se encuentre al aplicar la entrada, lo que denominamos condiciones iniciales. Por

ejemplo, la respuesta de un circuito donde haya un condensador no sera la misma si, en aplicar la

entrada, este tiene cierta carga o esta totalmente descargado. Para obtener esta caracterizacion

hace falta conocer el sistema componente a componente y por lo tanto, puede ser compleja si el

sistema es grande.

A traves de la respuesta impulsional, que se define como la salida del sistema a una delta. La

denominamos h(t) = T [δ(t)]. Esta aproximacion toma el sistema como una caja negra y “solo”

necesitamos conocer cual es la salida a una determinada entrada, o sea, hacer un “experimento”

sin necesidad de abrir la caja. A partir de h(t) se puede encontrar la salida a cualquier entrada

segun:

10

y(t) = T [x(t)] = T

[∫ ∞

−∞x(τ)δ(t− τ)dτ

]=

(si el sistema

es lineal

)=

∫ ∞

−∞x(τ)T [δ(t− τ)]dτ (5)

En el mejor de los casos, cuando el sistema es invariante, tendremos T [δ(t − τ)] = h(t − τ), es

decir, simplemente h(t) (que ya conocemos) desplazada. En cambio, si el sistema es variante, la

salida a una delta desplazada dependera de cuanto vale el desplazamiento τ pero tambien de

cual es el instante t en que la delta entra en el sistema. En este ultimo caso, decimos que tenemos

una respuesta impulsional variante en tiempo y escribimos h(t, τ). El sistema es mas difıcil de

caracterizar ya que habrıa que hacer un experimento para cada instante de tiempo t.

De aquı sacamos:

• Sistema variante: y(t) =∫∞−∞ x(τ)h(t, τ)dτ .

• Sistema invariante: y(t) =∫∞−∞ x(τ)h(t − τ)dτ . Esta ecuacion es la ecuacion o integral

de convolucion de sistemas LTI (Linear and Time Invariant), que escribiremos:

y(t) = x(t) ∗ h(t) =

∫ ∞

−∞x(τ)h(t− τ)dτ (6)

Ejemplo 1: Amplificador.

Kx(t) y(t) = Kx(t)

En este caso h(t) = Kδ(t) independientemente de cuando hagamos el experimento. Por tanto, es

invariante.

Ejemplo 2: Retardador.

Tx(t) y(t) = x(t− T )

En este caso h(t) = δ(t−T ), tambien independientemente de cuando hagamos el experimento. Por

tanto, tambien es un sistema invariante.

11

Ejemplo 3: Integrador.

∫ t

−∞ y(t)x(t)

En este caso h(t) =∫ t−∞ δ(τ)dτ = u(t), tambien independientemente de cuando hagamos el expe-

rimento. Por tanto, tambien es un sistema invariante.

Ejemplo 4: Modulador.

x(t) X y(t) = x(t) cosw0t

cosw0t

En este caso, si entramos una delta al sistema tenemos T [δ(t)] = δ(t) cosw0t = δ(t). Esta claro que

esto no caracteriza bien el sistema ya que en realidad no nos devuelve la entrada. Aquı sı que la respues-

ta del sistema depende del momento en que se hace el experimento, ya que el coseno va evolucionando

con el tiempo. En este caso el sistema es variante y tenemos que usar T [δ(t − τ)] = δ(t − τ) cosw0t.

Entonces y(t) =∫∞−∞ x(τ)h(t, τ)dτ =

∫∞−∞ x(τ)δ(t − τ) cosw0tdτ = cosw0t

∫∞−∞ x(τ)δ(t − τ)dτ =

x(t) cosw0t, lo cual es correcto (mirar el siguiente apartado para ver como funciona la integral de

convolucion).

A partir de ahora, nos centraremos en el estudio de sistemas LTI.

3. Sistemas lineales invariantes

3.1. Obtencion semi-grafica de y(t) = x(t) ∗ h(t)

Consideremos el siguiente sistema:

t

x(t)

t

h(t)

y(t)

Para calcular la integral, que es respecto a τ , vemos que necesitamos los terminos x(τ) y h(t− τ).

El primero ya esta claro, y el segundo lo reescribimos como h(−1(τ − t)). O sea, que para encontrar

12

la salida en el instante t debemos primero multiplicar x(τ) con h(τ) girada y desplazada t y luego

integrar para todo τ , tal y como vemos en la siguiente figura para t = 5:

tt=5

x(τ)h(5− τ)

∫∞−∞ x(τ)h(5− τ)

ty(t)

t=5

Ası hemos obtenido y(5). La senal entera se obtiene con este mismo procedimiento barriendo des-

de t = −∞.

Ejemplo 1: calcular la convolucion de x1(t) = Π(t−TB/2TB

)y x2(t) = Π

(t−TA/2TA

)con TA > TB.

En este caso vamos a calcular x2(t) ∗ x1(t) como∫∞−∞ x2(τ)x1(t− τ)dτ , aunque tambien lo podrıamos

haber hecho al reves. Graficamente, queremos hacer:

TATB

t− TB t

x2(τ)x1(t− τ)

τ

En primer lugar, vemos que las senales no se solapan hasta t = 0, con lo que y(t) = 0 para

t < 0. Si seguimos avanzando en t, los dos pulsos se solapan. Entre t = 0 y t = TB el producto

de funciones sera un pulso que va de τ = 0 a τ = t. La integral de convolucion en este intervalo

sera y(t) =∫∞−∞ x2(t)x1(t − τ)dτ =

∫ t0 1dτ = t. Luego, x1(t − τ) se solapa por completo hasta que

t = tA. La integral sera y(t) =∫∞−∞ x1(t − τ)dτ =

∫ tt−TB 1dτ = TB. Finalmente, el pulso x1(t − τ)

sale de x2(τ), desde t = TA hasta t = TA + TB. En este ultimo intervalo, el solape entre pulsos, y

por lo tanto el valor de la integral, es cada vez menor. El producto de funciones es un pulso que va

de τ = t− TB hasta τ = TA. Matematicamente tenemos: y(t) =∫∞−∞ x2(τ)x1(t− τ)dτ =

∫ TAt−TB 1dτ =

TA − t+ TB = (TA + TB)− t. A partir de este punto ya no existe solape y la salida se mantiene a 0.

Si agrupamos los resultados de las distintas partes obtenemos la siguiente salida y(t):

13

TB TA TA + TB

y(t)

De este ejemplo, podemos sacar dos observaciones importantes:

La duracion de la salida es la suma de las duraciones de las senales. Esto es ası en general.

Si TA = TB la salida pasa a ser un triangulo. Por lo tanto, la convolucion de dos pulsos de

duracion T , Π( tT ), da lugar a un triangulo de duracion 2T que expresamos como ∆( tT ).

Ejemplo 2: queremos obtener la senal y(t) que oyen los espectadores de un auditorio cuando los

musicos tocan una melodıa x(t).

Auditoriox(t) y(t)

Supondremos que el auditorio es un sistema LTI, lo cual parece razonable, ya que se espera que

se comporte de la misma manera independientemente del momento en que es usado. El paso siguiente

es ver cual es la respuesta a una delta para obtener la respuesta impulsional del auditorio. Para ello,

generamos un impulso de sonido en el escenario y medimos en el patio de butacas. En particular vemos

que recibimos el mismo impulso generado con un retardo despreciable mas un eco del impulso, que

llega 200ms mas tarde y con un nivel per debajo del primero. Determinamos entonces que la respuesta

impulsional de la sala es:

h(τ)

τ200ms

Si hacemos la convolucion para cualquier x(t) como antes, tenemos:

14

τ

h(t− τ)

t

x(τ)

t

Como h(t) son dos deltas y sabemos que la convolucion cumple la propiedad distributiva, vamos a

convolucionar cada delta por separado y luego sumar. Fijemonos en la delta de mayor nivel. Cuando

se solape con la senal, el producto x(τ)h(t − τ) sera x(t)δ(τ − t), con lo que despues de integrar en

todo τ , nos quedamos con x(t). Comprobamos, pues, la propiedad x(t) ∗ δ(t) = x(t). Para la segunda

delta tendremos mas o menos lo mismo, pero con un retardo adicional y una reduccion de nivel. A

continuacion vemos la senal de salida como suma de las dos convoluciones:

convolución delta

sin retardoconvolución delta

del eco

convolución

entera

y(t)

t

Ası pues, comprobamos que el operador convolucion da como resultado lo que esperarıamos de

este sistema. Podemos usar este ejemplo para interpretar la convolucion segun (5) como sigue: si

descomponemos h(τ) como una suma (quiza infinita) de deltas con su valor correspondiente, entonces

la salida del sistema sera la suma de replicas (quiza infinitas) de x(t) adecuadamente escaladas y

retardadas.

3.2. Propiedades de la convolucion

Son las siguientes:

1. Conmuntativa: x(t) ∗ h(t) = h(t) ∗ x(t) −→∫∞−∞ x(τ)h(t− τ)dτ =

∫∞−∞ h(τ)x(t− τ)dτ

En el ejemplo 1 anterior, podemos comprobar que si giramos y desplazamos x(τ) en vez de h(τ)

para obtener y(5), el area resultante es exactamente la misma.

2. Asociativa: x(t) ∗ (y(t) ∗ z(t)) = (x(t) ∗ y(t)) ∗ z(t) = x(t) ∗ y(t) ∗ z(t)En sistemas en cascada, no importa el orden en que se encuentren. Los siguientes sistemas son

todos equivalentes:

15

h1(t) h2(t)x(t) y(t)

h1(t)h2(t)x(t) y(t)

y(t)x(t)

y(t)x(t)

h1(t) ∗ h2(t)

h2(t) ∗ h1(t)

3. Distributiva: x(t) ∗ (h1(t) + h2(t)) = (x(t) ∗ h1(t)) + (x(t) ∗ h2(t))Esto equivale a decir que dos sistemas en paralelo equivalen a uno cuya respuesta impulsional

es suma de la respuestas.

y(t)x(t)

h1(t)

h2(t)

x(t) y(t) h1(t) + h2(t)

4. Identidad con δ(t): x(t) ∗ δ(t) = x(t), δ(t) ∗ δ(t) = δ(t)

Ejemplo: Calcular la respuesta impulsional del siguiente sistema:

T

∫ t

−∞+x(t) y(t)+

-

h1(t)

h2(t)

h3(t)

Simplemente hay que expresar h(t) en funcion de las respuestas de los subsistemas individuales,

es decir, h(t) = (h1(t)− h2(t)) ∗ h3(t) = (δ(t)− δ(t− T )) ∗ u(t) = u(t)− u(t− T ) = Π(t−T/2T

).

3.3. Propiedades de los sistemas LTI a partir de h(t)

Conociendo h(t) es posible determinar si un sistema LTI es causal y/o estable de la siguiente forma:

Causalidad: el sistema sera causal si h(t) = 0 para t < 0.

Recordemos la definicion de un sistema causal, es decir, si x(t) = 0 para t < t0 entonces

y(t) = 0 para t < t0. Calculemos ahora la salida del sistema como y(t) =∫∞−∞ x(τ)h(t − τ)dτ .

16

Si la respuesta impulsional debe ser 0 para t < 0, entonces h(t − τ) = 0 para t − τ < 0, o lo

que es lo mismo, para τ > t. En la integral de convolucion, esto se traduce en que solo hace

falta integrar hasta t, ya que h(t − τ) es 0 para valores mayores. Por lo tanto, en este caso,

y(t) =∫ t−∞ x(τ)h(t− τ)dτ . En la integral solo intervienen valores de x(τ) anteriores a t y por lo

tanto, se comprueba que el sistema es causal.

Estabilidad: se requiere que∫∞−∞ |h(τ)|dτ <∞.

Miremos si ante estas condiciones y para una entrada acotada |x(t)| < B, la salida se mantiene

acotada:

|y(t)| =

∣∣∣∣∫ ∞

−∞x(t− τ)h(τ)dτ

∣∣∣∣ ≤∫ ∞

−∞|x(t− τ)h(τ)|dτ

≤∫ ∞

−∞|x(t− τ)||h(τ)|dτ ≤ B

∫ ∞

−∞|h(τ)|dτ ≤ ∞ (7)

Notese que en la primera desigualdad se interpreta la integral como una suma y luego se hace uso

de la desigualdad triangular, que dice que dados dos complejos a y b, entonces |a+ b| ≤ |a|+ |b|.En la segunda desigualdad se tiene en cuenta tambien que para dos complejos a y b, se cumple

|a · b| = |a| · |b|.

17

Tema 2: La Transformada de Laplace

Antoni Morell y Rosana Rodrıguez

3 de marzo de 2014

1. La transformada de Laplace. Definicion y propiedades.

Antes de empezar con la definicion formal de la transformada, comencemos viendo cual es su

utilidad. Desde ese punto de vista, la transformada de Laplace es una operacion o transformacion

matematica muy util para la resolucion de ecuaciones diferenciales ordinarias (en particular, las lineales

y de coeficientes constantes). Pero... ¿que es una ecuacion diferencial? Es una ecuacion donde aparecen

funciones de una o varias variables y tambien sus derivadas. Si nos centramos en las ecuaciones

diferenciales ordinarias de orden n con coeficientes reales, estas tomaran la siguiente forma:

dn

dtny(t) + a

n1dn1

dtn1y(t) + . . .+ a1

d

dty(t) + a0 y(t) = f(t) (1)

donde ai

son los coeficientes constantes, y(t) es la variable dependiente y f(t) se conoce como funcion

excitadora.

Consideremos un ejemplo practico. Supongamos que, en el circuito de la Figura 1, se quiere ver

cual es la tension del condensador en todo momento vc

(t).

+

+ -

+

-

R

vC(t)V C

i(t)

Figura 1: Circuito RC.

Aplicando la ley de Kircho↵ de tensiones, vemos que:

V = R i(t) + vC

(t) (2)

donde ya se ha considerado que la tensıon en la resistencia vale vR

(t) = R i(t). Finalmente, si tenemos

en cuenta la ley tension-corriente del condensador, es decir, iC

(t) = C d

dt

vC

(t), llegamos a la ecuacion

V = RCd

dtvC

(t) + vC

(t) (3)

18

Comprobamos que se trata de una ecuacion en la que intervienen tanto la funcion incognita vC

(t)

como su derivada. Pues bien, la transformada de Laplace es una herramienta que, entre otras cosas,

nos permitira resolver ecuaciones diferenciales de forma sencilla.

¿Como es eso posible? Como veremos, gracias a la transformada de Laplace podremos pasar de una

ecuacion diferencial en el dominio del tiempo a una ecuacion algebraica en el dominio s o dominio

transformado (se llama dominio s porque esta es la variable que usaremos en el otro dominio al igual

que en tiempo usamos la variable t y que, dicho sea de paso, se trata de una variable compleja que

descompondremos segun s = + j!). Trabajar con la ecuacion algebraica va a ser en general mucho

mas sencillo que hacerlo con la ecuacion en el dominio temporal (hemos resuelto muchas veces este tipo

de ecuaciones) y una vez encontrada la solucion en el dominio s, la clave sera poder antitransformar

para volver al dominio temporal que es el que nos interesa.

1.1. Definicion de la Transformada de Laplace Unilateral

La trasformada de Laplace unilateral de una funcion temporal f(t) es una funcion de variable

compleja s que se define segun

F (s) = Lf(t) =

Z 1

0f(t) estdt (4)

donde f(t) es una funcion que depende del tiempo t y que esta definida para t > 0 (supondremos

siempre que f(t) = 0 para t < 0), F (s) es la version transformada en el dominio s de f(t) y L es el

sımbolo que distingue al operador de Laplace, lo cual indica que lo que haya dentro de dicho operador

sera transformado. Cuando tratamos con la transformada unilateral de Laplace (veanse los lımites de

integracion, que tienen en cuenta solo el lado positivo del eje real) nos importan los valores que toma

la funcion para t > 0. A menudo trataremos con funciones f(t) definidas para todo t pero a la luz de

la transformada unilateral de Laplace, estamos suponiendo que multiplicamos implıcitamente dicha

funcion por u(t) (esto serıa lo mas correcto aunque no siempre lo explicitemos).

Veamos a continuacion algunos ejemplos:

f(t) = 1. Como hemos comentado, en la transformada unilateral de Laplace consideraremos

indistintamente f(t) = 1 y f(t) = u(t) puesto que para t 0 son “la misma” funcion, aunque lo

correcto es siempre anadir el termino u(t). En el caso que estamos tratando tenemos:

F (s) =

Z 1

01 estdt = 1

s

1

0

=1

s(5)

f(t) = t (o bien f(t) = t u(t)). En este caso calculamos la transformada de Laplace como:

F (s) =

Z 1

0t estdt =

integracion

por partes

!= t est

s

1

0

+

Z 1

0

est

sdt = 1

s2est

1

0

=1

s2(6)

f(t) = et. Este caso es algo mas especial que los anteriores ya que dependiendo del valor

que tome s existe o no transformada. Notese que cuando Res > , entonces la exponencial

19

etest = e(s)t tiene parte real negativa o, lo que es lo mismo, el complejo resultante tiene

un modulo que decae exponencialmente con el tiempo. En esta situacion la integral converge y

podemos calcular su transformada de Laplace como

Z 1

0etestdt =

Z 1

0e(s)tdt =

Z 1

0e(s)tdt =

1

s e(s)t

1

0

=1

s (7)

Ası pues, asociada a la transformada de Laplace esta la region de convergencia o ROC, que

nos dice para que valores de s existe transformada. El concepto de ROC es muy importante

aunque no lo veamos de forma explıcita a la largo de esta asignatura per el hecho de tratar con

la transformada unilateral de Laplace, pero para mostrar su importancia diremos que, en caso

de considerar la transformada bilateral, entonces una misma transformada puede corresponder a

dos senales temporales distintas y solo la ROC nos delimitara cual es la buena. La transformada

bilateral se puede ver como una extension de la unilateral en la que los lımites de integracion

van de 1 a +1 y por lo tanto, elimina la condicion f(t) = 0 para t < 0. A nivel de sistema, la

transformada unilateral tiene sentido ya que todos los sistemas implementables seran causales y

por lo tanto su respuesta impulsional estara definida unicamente para t 0. Volviendo al ejemplo

anterior y considerando ahora la transformada bilateral, la funcion transformada F (s) = 1s

tendrıa como transformada:

• f(t) = etu(t) si la ROC fuese Res >

• f(t) = etu(t) si la ROC fuese Res <

Por lo tanto, vemos en este ejemplo que la ROC para un sistema causal es siempre el semiplano

a la derecha de un cierto umbral como indica la siguiente figura:

j!

sistema anti-causal

sistema causal

1.2. Existencia de la Transformada de Laplace

Con el objetivo de determinar la existencia de la Transformada de Laplace debemos asegurarnos

basicamente que la integral de la definicion exista y resulte en algo finito. Ası pues, podemos decir

que:

1. Si una funcion no es integrable, entonces seguro que no tiene transformada.

2. Si una funcion es integrable pero su integral no converge (se va a infinto), entonces tampoco

puede tener transformada.

20

Si consideramos una funcion f(t) definida en [0,1) y ademas continua a trozos, conseguimos so-

lucionar el primer problema, pues sera integrable aunque no necesariamente va a converger (es decir,

podremos hacer la suma pero esta puede ser infinita). Para solucionar tambien el segundo problema

requeriremos que ademas la funcion sea de orden exponencial.

Una funcion es de orden exponencial si en valor absoluto esta acotada por una exponencial del tipo

Mect con M, c 2 R, es decir|f(t)| Mect (8)

como muestra la figura. En este caso, podemos asegurar que la integral converge para todo s con

t

Mect

M

|f(t)|

Res > c ya que el producto Mectest sera una exponencial con modulo decreciente en el tiempo.

Notese que si este producto es decreciente, aun con mas razon lo sera el producto f(t)est.

Teorema de exixtencia de la Transformada de Laplace

Dada f(t) para 0 t <1, si se cumple: i) f(t) es continua a trozos y ii) f(t) es de orden exponencial,

entonces su transformada de Laplace F (s) existe para Res > c.

Nota: Las condiciones son suficientes pero no necesarias, con lo que una funcion f(t) no contınua a

trozos y que no sea de orden exponencial puede tener tambien (o no) transformada de Laplace.

Comprobacion

lımA!1

Z

A

0f(t)estdt

lımA!1

ZA

0

f(t)est

dt = lımA!1

ZA

0|f(t)|

est

dt (9)

M lımA!1

ZA

0e(c)tdt =

M

c(si > c)

Aquı vemos claramente que la transformacion (de Laplace) resulta en algo finito bajo las condiciones

expuestas.

1.3. Propiedades de la Transformada de Laplace

Son las siguientes:

21

1. Correspondencia biunıvoca: f(t) ! F (s).

Nota: En la transformada de Laplace bilateral es necesario tambien definir la ROC correspon-

diente. En la unilateral (la que usaremos nosotros) no hace falta.

2. Linealidad: Lc1f1(t) + c2f2(t) = c1Lf1(t)+ c2Lf2(t)

Comprobacion: a traves de la linealidad del operador integracionZ 1

0[c1f1(t) + c2f2(t)]e

stdt = c1

Z 1

0f1(t)e

stdt+ c2

Z 1

0f2(t)e

stdt (10)

= c1 Lf1(t)+ c2 Lf2(t)

Ejemplo de aplicacion: encontrar las transformadas del seno y del coseno. Si consideramos f(t) =

cos(!t) y g(t) = sin(!t) y aplicamos la formula de Euler, vemos que ej!t = f(t) + jg(t). Desde

el punto de vista transformado y aplicando la propiedad de linealidad tenemos:

Lej!t = Lf(t)+ jLg(t) = F (s) + jG(s) (11)

Por suerte, ya sabemos calcular la transformada de ej!t, que vale Lej!t = 1sj!

= s+j!

s

2+!

2 .

Ahora ya simplemente identificando partes llegamos a la conclusion deseada, es decir

F (s) = Lcos(!t) =s

s2 + !2(12)

G(s) = Lsin(!t) =!

s2 + !2(13)

3. Derivacion: Lf 0(t) = Ldf(t)dt

= sF (s) f(0).

Comprobacion:

Z 1

0f 0(t)estdt =

u = est f 0(t)dt = dv

du = sestdt f(t) = v

!(14)

= estf(t)

1

0

+ s

Z 1

0f(t)estdt = f(0) + sF (s) (15)

Generalizacion:

Esta propiedad se puede generalizar siempre que la derivada n-esima tenga transformada de

Laplace, que se relacionara con F (s) segun

Ldnf(t)

dtn = snF (s) sn1f(0) sn2f 0(0) sn3f 00(0) . . . sf (n2)(0) f (n1)(0) (16)

Ejemplo de aplicacion:

Gracias a la propiedad de derivacion obtenemos una de las aplicaciones mas importantes de

la transformada de Laplace, pues es lo que nos permite transformar una ecuacion diferencial

ordinaria en algebraica. Por ejemplo, supongamos un sistema cuya respuesta y(t) evoluciona a

lo largo del tiempo segun la ecuacion

y00(t) + 4y0(t) + 3y(t) = t (17)

22

con condiciones iniciales y(0) = 2 y y0(0) = 3. Notese que, al fin y al cabo, una ecuacion

diferencial nos da informacion sobre variaciones del sistema pero en ningun caso nos da una

medida absoluta de su estado. Por eso son necesarias las condiciones iniciales si se pretende dar

una caracterizacion completa del sistema.

Usando la propiedad de derivacion, vemos que

Ly(t) = Y (s)

Ly0(t) = sY (s) 2

Ly00(t) = s2Y (s) sy(0) y0(0) = s2Y (s) sy(0) y0(0)

Ademas, sabemos que Lt = 1s

2 , por lo que sustituyendo terminos, la ecuacion temporal se

transforma en

s2Y (s) 2s+ 3 + 4sY (s) 8 + 3Y (s) =1

s2(18)

que es una ecuacion algebraica. Ahora es posible aislar Y (s), con lo que llegamos a la solucion

Y (s) =1 + s2(2s+ 5)

(s2 + 4s+ 3)s2(19)

y unicamente nos faltarıa anti-transformar para encontrar y(t), que es lo que realmente nos

interesa.

4. Integracion: LRt

0 f()d = F (s)s

Comprobacion:

Para verificar esta propiedad, emplearemos el primer teorema fundamental del calculo, que nos

diced

dx

Zb(x)

a(x)f(t)dt = f(b(x))b0(x) f(a(x))a0(x) (20)

Aplicado a nuestro caso tenemos

g(t) =

Zt

0f(u)du ! d

dtg(t) = f(t) (21)

Ahora, aplicando la anterior propiedad de derivacion obtenemos

F (s) = Lg0(t) = sLg(t) g(0) = sLZ

t

0f(u)du

(22)

ya que g(0) =R 00 f(u)du = 0. Ası pues concluimos que

LZ

t

0f(u)du

=

F (s)

s(23)

5. Multiplicacion por t: Lt f(t) = d

ds

F (s)

Comprobacion:

23

d

dsF (s) =

d

ds

Z 1

0estf(t)dt =

Z 1

0

d

dsestf(t)dt =

Z 1

0t estf(t)dt = Lt f(t) (24)

Generalizacion:

Ltn f(t) = (1)n dn

dsnF (s) (25)

6. Division por t: Lf(t)t

=R +1s

F (u)du

Comprobacion:

Partiendo de la definicion de F (s) =R10 f(t)estdt, vemos que

Z 1

s

F (u)du =

Z 1

s

Z 1

0f(t)eutdt du =

cambio del orden

de integracion

!(26)

=

Z 1

0f(t)

Z 1

s

eutdu

dt =

Z 1

0f(t)

est

tdt = L

f(t)

t

7. Multiplicacion por e↵t: Le↵tf(t)

= F (s ↵)

Comprobacion:

Le↵tf(t) =

Z 1

0e↵tf(t) estdt =

Z 1

0f(t) e(s↵)tdt = F (s ↵) (27)

Analogamente, podemos afirmar que Le↵tf(t)

= F (s+ ↵).

Pongamos un ejemplo: si sabemos que Lcos(!t) = s

s

2+!

2 , entonces

Le↵t cos(!t) =s+ ↵

(s+ ↵)2 + !2(28)

8. Traslacion en el tiempo: si F (s) = Lf(t) y desplazamos f(t) un cierto tiempo a obteniendo

ası f(t) =

(f(t a) t a

0 t < a(ver figura), entonces Lf(t) = easF (s).

Comprobacion:

Lf(t) =

Z 1

0estf(t)dt =

Z 1

a

estf(t a)dt =

t a = u

dt = du

!(29)

=

Z 1

0esuesaf(u)du = easF (s)

Ejemplo de aplicacion: encontrar la transformada de Laplace del pulso rectangular f(t) =

tt0/2

t0

.

24

ta

f(t)

f(t)

Sabemos que podemos expresar el pulso rectangular como: tt0/2

t0

= u(t)u(tt0). Teniendo

esto en cuenta y conociendo la transformada del pulso unitario Lu(t) = 1s

, encontramos

L

t t0/2

t0

= Lu(t) Lu(t t0) =

1

s est0

s=

1 est0

s(30)

9. Cambio de escala: Lf(at) = 1a

Fs

a

Comprobacion:

Z 1

0estf(at)dt =

t =

a

dt = d

a

!=

Z 1

0es

a f()

d

a=

1

a

Z 1

0es

a f()d =

1

aFsa

(31)

10. Funciones periodicas: si f(t) es una funcion periodica, es decir, f(t+rt) = f(t), r 2 N+, entonces

podemos encontrar su transformada de Laplace como

Lf(t) =

RT

0 estf(t)dt

1 esT

(32)

Comprobacion:

F (s) = Lf(t) =

Z 1

0estf(t)dt =

ZT

0estf(t)dt+

Z 1

T

estf(t)dt (33)

Hacemos el cambio de variable t = T + u en la segunda de las integrales y nos queda

F (s) =

ZT

0estf(t)dt+

Z 1

0es(T+u)f(T + u)du =

f(u) = f(T + u)

por ser periodica

!(34)

=

ZT

0estf(t)dt+ esT

Z 1

0esuf(u)du =

ZT

0estf(t)dt+ esTF (s)

Finalmente, aislando F (s) llegamos al resultado deseado.

25

11. Teorema del valor inicial: nos permite encontrar f(t) para t! 0 a partir de F (s) sin necesidad

de calcular la transformada inversa para obtener f(t) y luego calcular el lımite correspondiente.

Gracias al teorema del valor inicial podremos, por ejemplo, verificar las condiciones iniciales del

sistema.

Sean f(t) y df(t)dt

transformables, entonces lımt!0 f(t) = lım

s!1 s F (s).

Comprobacion:

Empezamos usando la propiedad de derivacion para establecer la siguiente relacionZ 1

0

d f(t)

dtestdt = s F (s) f(0) (35)

y tomamos el lımite s !1 en la parte izquierda de la igualdad, lo que resulta en

lıms!1

Z 1

0

d f(t)

dtestdt =

Z 1

0

d f(t)

dtlıms!1

estdt =

Z 1

0

d f(t)

dt0 dt = 0 (36)

Por lo tanto, teniendo en cuenta la relacion inicial llegamos a

lıms!1

Z 1

0

d f(t)

dtestdt = lım

s!1s F (s) f(0) = 0 (37)

Finalmente, identificando f(0) = lımt!0 f(t) llegamos al resultado deseado.

Ejemplo de aplicacion: Nos dan la funcion I1(s) =2s+5

(s+1)(s+2) en el domino transformado y nos

piden i1(0).

Aplicando el teorema del valor inicial, podemos encontrarlo sin necesidad de anti-transformar

haciendo

i1(0) = lıms!1

2s2 + 5s

s2 + 3s+ 2= 2 (38)

Si hubieramos anti-transformado (veremos como mas adelante), obtendrıamos i1(t) = 3ete2t

y tomando el lımite t! 0, hubieramos llegado al mismo resultado.

12. Teorema del valor final: analogamente al teorema del valor inicial, nos permiten encontrar f(t)

para t!1 a partir de F (s) sin necesidad de calcular la transformada inversa para obtener f(t)

y luego calcular el lımite correspondiente. Gracias al teorema del valor final podremos saber, por

ejemplo, hacia donde tiende el sistema (a muy largo plazo).

Sean f(t) y df(t)dt

ttransformables tal que exista f(1), entonces lımt!1 f(t) = lım

s!0 s F (s).

Comprobacion:

De manera semejante al caso anterior pero tomando el lımite s! 0 obtenemos

lıms!0

Z 1

0

d f(t)

dtestdt =

Z 1

0

d f(t)

dtlıms!0

estdt =

Z 1

0

d f(t)

dt1 dt = f(1) f(0) (39)

Usando de nuevo la propiedad de derivacion y anadiendo los lımites obtenemos

f(1) f(0) = lıms!0

[s F (s) f(0)] (40)

Finalmente, cancelando f(0) a ambos lados de la igualdad e identificando f(1) = lımt!1 f(t)

llegamos al resultado descrito.

26

13. Evaluacion de integrales: si F (s) = Lf(t), entonces

lıms!0

F (s) = lıms!0

Z 1

0estf(t)dt =

Z 1

0f(t)dt = F (0) (41)

14. Transformada de la integral de convolucion: Lf1(t) f2(t) = F1(s) · F2(s)

Ası pues, una operacion mas bien compleja a nivel temporal como es la convolucion se simplifica

enormemente bajo el prisma de la transformada de Laplace. Como en el caso de la resolucion de

ecuaciones diferenciales ordinarias, a menudo nos resultara mucho mas interesante transformar

las senales a convolucionar, hacer el producto en el dominio s y luego anti-transformar que

intentar abordar la convolucion directamente a nivel temporal.

Comprobacion:

Lf1(t) f2(t) =

Z 1

0

Z 1

0f1(t )f2()d

estdt (42)

=

Z 1

0

Z 1

0f1(t )estdt

f2()d

Notese que en la primera igualdad la integral de convolucion empieza en 0 y no en 1 dado que

las senales a convolucionar valen 0 para t < 0. En la segunda igualdad cambiamos el orden de

integracion y nos damos cuenta que la integral interior es justamente la transformada de Laplace

de f1(t) con un cierto desplazamiento . Aplicando la propiedad de desplazamiento temporal

podemos ver que dicha integral vale esF1(s). EntoncesZ 1

0

Z 1

0f1(t )estdt

f2()d =

Z 1

0esF1(s)f2()d (43)

= F1(s)

Z 1

0esf2()d = F1(s) · F2(s)

Transformada de Laplace de u(t) y (t):

Ambas funciones tienen especial relevancia en terminos de convolucion y transformada de Lapla-

ce. En cuanto a la funcion (t), ya sabemos que la salida de un sistema cuando a la entrada hay

una delta nos proporciona su respuesta impulsional h(t). En el dominio transformado, definiremos

H(s) = Lh(t) como la funcion de transferencia del sistema y para encontrarla necesitaremos la

transformada de Laplace de (t). Otras veces, con el mismo fin de encontrar H(s), nos sera mas

practico considerar como entrada al sistema el pulso unitario u(t) (a la practica es conectarlo)

y medir su respuesta.

La transformada de u(t) ya la hemos visto, pero la recordamos,

Lu(t) =

Z 1

0u(t)estdt =

Z 1

0estdt =

1

s(44)

La transformada de (t) es

L(t) =

Z 1

0(t)estdt = es0 = 1 (45)

27

Comprobacion mediante ejemplo:

Consideremos las funciones f1(t) = u(t) y f2(t) = u(t)et. La convolucion de ambas funciones

resulta

f(t) = f1(t) f2(t) =Z 1

1u(t )u()ed =

Z 1

0u(t )ed =

Zt

0ed = 1 et (46)

Si lo miramos en el dominio transformado tenemos

F1(s) = Lf1(t) =1

s

F2(s) = Lf2(t) =1

s+ 1(47)

F (s) = Lf(t) = L1 et = L1 Let =1

s 1

s+ 1=

1

s(s+ 1)

donde claramente comprobamos que se cumple F (s) = F1(s) · F2(s).

2. La Transformada Inversa de Laplace

Hasta el momento hemos visto cual es la puerta de entrada al dominio s (la propia transformada de

Laplace), una serie de herramientas que nos permiten relacionar ambos dominios de forma mas sencilla

que a fuerza bruta (las propiedades de la transformada) y nos falta ver cual es el camino de regreso

del dominio s al dominio temporal, es decir, la transformada inversa o anti-transformada de Laplace,

que denotaremos como L1.

Para encontrar la transformada inversa de Lapace tenemos basicamente dos opciones:

Aplicar directamente la anti-transformada de Laplace como sigue

L1F (s) = f(t) = lımT!1

1

2j

Zc+jT

cjT

F (s)estds (48)

donde c se debe escoger con el fin de integrar unicamente puntos dentro de la ROC y t 0. Se

trata de un metodo generico pero a su vez complicado ya que implica el calculo de una integral

sobre variable compleja y lo evitaremos en la practica.

Por descomposicion de F (s) en terminos cuya anti-transformada sea conocida. En ese caso,

aplicando la propiedad de linialidad de la transformada, podremos expresar f(t) como suma de

anti-transformadas.

Anti-transformada de Laplace por descomposicion en fracciones simples

Centremonos pues en la segunda opcion y busquemos una manera sistematica de hacer la descom-

posicion de F (s) en terminos conocidos. En concreto, este metodo nos sera util cuando podamos

expresar F (s) como fraccion de polinomios en s con el grado del numerador menor o igual que el del

denominador. Ası pues, tenemos

F (s) =N(s)

D(s)(49)

28

donde m = gradoN(s) y n = gradoD(s) con m n. Gracias al teorema fundamental del algebra,

sabemos que es posible descomponer N(s) y D(s) en m y n raıces complejas contando multiplicidades,

respectivamente. Ası pues, podemos expresar F (s) como

F (s) = K(s z1)(s z2) . . . (s z

m

)

(s p1)(s p2) . . . (s pn

)(50)

donde zk

son las raıces de N(s), a las que llamaremos los ceros de F (s), y pk

son las raıces de D(s),

a las que llamaremos polos de F (s).

A continuacion veremos como obtener la transformada inversa en cuatro casos distintos, que son

1. Polos simples reales y n > m.

2. Polos simples reales y complejos conugados con n > m.

3. Polos reales multiples y n > m.

4. La funcion F (s) cumple n = m.

Caso 1: Polos reales simples

En este caso es posible hacer la siguiente descomposicion

F (s) =N(s)

(s p1)(s p2) . . . (s pn

)=

A1

s p1+

A2

s p2+ . . .

An

s pn

(51)

donde Ak

son valores constantes. Una vez conseguida la descomposicion y sabiendo que Le↵t = 1s↵

,

encontramos la transformada inversa como

f(t) =A1 e

p1t +A2 ep2t + . . .+A

n

epntu(t) (52)

La cuestion ahora es como encontrar los valores Ak

. Fijemonos que, dado que m < n y que disponemos

de n valores Ak

, tenemos suficientes grados de libertad para poder fijar los m + 1 coeficientes que

tendra a lo sumo el polinomio N(s), por lo que la descomposicion es posible. Pongamos un ejemplo

sencillo.

F (s) =4s 3

s2 + 4s+ 3=

A1

s+ 1+

A2

s+ 3=

A2(s+ 1) +A1(s+ 3)

(s+ 1)(s+ 3)=

(A1 +A2)s+ (3A1 +A2)

s2 + 4s+ 3(53)

con lo que debemos cumplir A1 +A2 = 4 junto con 3A1 +A2 = 3, lo cual es factible.

No obstante, este modo de proceder resultarıa algo tedioso, por lo que intentaremos encontrar una

alternativa mas simple. Veamos que sucede si multiplicamos F (s) en su forma descompuesta por

(s pk

). Tendremos

F (s)(s pk

) =A1

s p1(s p

k

) +A2

s p2(s p

k

) + . . .+A

k

s pk

(s pk

) + . . .A

n

s pn

(s pk

) (54)

29

y cancelando (s pk

) en el k-esimo termino tenemos

F (s)(s pk

) =A1(s p

k

)

s p1+

A2(s pk

)

s p2+ . . .+A

k

+ . . .A

n

(s pk

)

s pn

(55)

Finalmente, si evaluamos F (s)(s pk

) en s = pk

obtenemos directamente Ak

ya que el resto de

sumandos valen 0. Ası pues, el metodo para determinar los coeficientes es multiplicar F (s) por el

monomio correspondiente y evaluar todo en el valor del polo. En resumen,

Ak

= F (s)(s pk

)

s=pk

(56)

Ejemplo: anti-transformar F (s) = s

2+2s+2(s+1)(s+2)(s+3)

En primer lugar expresamos F (s) como

F (s) =s2 + 2s+ 2

(s+ 1)(s+ 2)(s+ 3)=

A1

s+ 1+

A2

s+ 2+

A3

s+ 3(57)

Acto seguido calculamos las constantes haciendo

A1 =(s2 + 2s+ 2)(s+ 1)

(s+ 2)(s+ 3)(s+ 1)

s=1

=1 2 + 2

1 · 2 = 0, 5

A2 =(s2 + 2s+ 2)(s+ 2)

(s+ 1)(s+ 3)(s+ 2)

s=2

=4 4 + 2

(1) · 1 = 2 (58)

A3 =(s2 + 2s+ 2)(s+ 3)

(s+ 1)(s+ 2)(s+ 3)

s=3

=9 6 + 2

(2) · (1) = 2, 5

con lo que nos queda F (s) = 0,5s+1

2s+2 + 2,5

s+3 . Ahora ya podemos anti-transformar cada una de las

fracciones para llegar al resultado deseado, que es

f(t) =0, 5et 2e2t + 2, 5e3t

u(t) (59)

Caso 2: Polos complejos

En este segundo caso supondremos que ademas de raıces reales tenemos raıces complejas y hay que

tener en cuenta que cuando aparece una raız compleja debe haber tambien su compleja conjugada.

A continuacion vemos que sucede cuando hay una raız y su compleja conjugada, pero el siguiente

desarrollo sirve para cuantas raıces existan. Supongamos pues que F (s) es de la forma

F (s) =N(s)

D0(s) ((s ↵)2 + 2)(60)

En este caso esta claro que no existe ningun numero real tal que(s ↵)2 + 2

= 0 y debemos recorrer

a los numeros complejos para hallar sus dos raices, que son ↵± j. De esta forma la descomposicion

en fracciones simples quedarıa

F (s) =N(s)

D0(s) [s (↵+ j)] [s (↵ j)]=

A

s ↵ j+

A

s ↵+ j+ . . . (61)

30

donde los puntos suspensivos indican la descomposicion en fracciones simples de las raıces reales (caso

1). Notese que las constantes A y A que acompanan a las fracciones complejas y que se calculan

del mismo modo que en el caso anterior son tambien complejas conjugadas, por lo que no hace falta

calcular ambas.

En cuanto a la transformacion inversa, este caso es muy parecido al anterior aunque ahora nos apare-

ceran exponenciales con argumento complejo con los que podremos elaborar algo mas. Tenemos dos

posibilidades:

1. Expresar A en modulo y fase como A = |A|ej, con lo que A = |A|ej.

En este caso la anti-transformada seria:

f(t) = u(t)|A|eje(↵+j)t + |A|eje(↵+j)t + . . .

(62)

= u(t)|A|e↵t(ej(t+) + ej(t+)) + . . .

= u(t)

2|A|e↵t cos (t+ ) + . . .

2. Expresar A en parte real e imaginaria como A = a+ jb, con lo que A = a jb.

En este caso la anti-transformada seria:

f(t) = u(t)(a+ j)e(↵+j)t + (a jb)e(↵j)t + . . .

= u(t)e↵t(aejt + jbejt + aejt jbejt) + . . .

(63)

= u(t)e↵t(2a cost+ 2b sint) + . . .

Aunque no llegamos a la misma expresion, evidentemente ambas son la misma funcion. Quiza la pri-

mera nos sea mas util para visualizar el resultado final, pues se trata de una senoide de amplitud

inicial |A| y fase que se atenua (↵ < 0) o amplifica (↵ > 0) de forma exponencial segun el termino

e↵t (si ↵ = 0 la amplitud se mantiene constante a |A|).

Ejemplo: anti-transformar F (s) = 2s+3s

3+5s2+9s+5

En primer lugar buscamos las raıces del denominador y encontramos

F (s) =2s+ 3

(s+ 1)[s2 + 4s+ 5](64)

Si buscamos las raıces de s2 +4s+5 utilizando la formula para resolver ecuaciones de segundo grado,

encontramos que estas se encuentran en s = 2± j. Ası pues, expresamos F (s) como

F (s) =2s+ 3

(s+ 1)(s+ 2 + j)(s+ 2 j)=

A1

s+ 1+

A2

s+ 2 + j+

A3

s+ 2 j(65)

Ahora calculamos A1 y A2 igual que en el caso 1, es decir

A1 =(2s+ 3)(s+ 1)

(s+ 2 + j)(s+ 2 j)(s+ 1)

s=1

= 0, 5 (66)

A2 =(2s+ 3)

(s+ 2 + j)

(s+ 1)(s+ 2 j)(s+ 2 + j)

s=2j

=1 2j

(2j 2)=2 + 6j

8= 0, 25 + 0, 75j

31

Notese que no hace falta calcular A3 ya que A3 = A2 = 0, 25 0, 75j. De esta forma podemos

expresar F (s) como

F (s) =0, 5

s+ 1+0, 25 + 0, 75j

s+ 2 + j+0, 25 0, 75j

s+ 2 j(67)

y anti-transformar segun lo explicado, cuyo resultado sera

f(t) = u(t)0, 5et + (0, 25 + 0, 75j)e2tejt + (0, 25 0, 75j)e2tejt

= u(t)0, 5et + e2t

0, 25(ejt + ejt)

+ e2t

0, 75j(ejt + ejt)

(68)

= u(t)0, 5et + e2t(0, 5 cos t+ 1, 5 sin t)

Caso 3: Polos multiples

En este tercer caso exploramos la existencia de raıces multiples. Ası pues, supongamos que F (s) tiene

una raız de multiplicidad l y veamos como pasar al dominio temporal. Supongamos primero

F (s) =N(s)

(s p1)l(s p2) . . . (s pn

)(69)

En este caso el polo en p1 debe considerar tantas constantes en la descomposicion como su multipli-

cidad. En nuestro caso, la descomposicion deberıa ser

F (s) =A11

(s p1)l+

A12

(s p1)l1+ . . .+

A1l

s p1+

A2

s p2+ . . .+

An

s pn

(70)

Nos preocupamos primero del calculo de los coeficientes A1k. Siguiendo la logica del primer caso

encontramos facilmente el coeficiente A11 como

A11 = F (s)(s p1)l

s=p1

(71)

No obstante, no sabemos como calcular el resto de los coeficientes. Consideremos ahora la funcion

(s p1)lF (s) simplificada

F (s)(s p1)l = A11 +A12(s p1) + . . .+A1l(s p1)

l1 +A2(s p1)l

s p2+ . . .+

An

(s p1)l

s pn

(72)

y tomemos la derivada respecto a s. Llegamos a

d

dsF (s)(sp1)l = A12+ . . .+A1l(l1)(sp1)l2+

A2 l (s p1)l1(s p2)A2(s p1)l

(s p2)2+ . . . (73)

y nos damos cuenta que evaluando en s = p1 obtendremos el valor de A12 ya que el proceso de

derivacion ha anulado los terminos de orden inferior mientras que el resto de terminos valen cero una

vez evaluamos en s = p1. Vemos tambien que este mecanismo se puede repetir tomando derivadas

sucesivas para conseguir todos los valores requeridos. De forma generica, calcularemos el termino A1k

como

A1k =1

(k 1)!lıms!p1

dk1

dsk1(s p1)

nF (s) (74)

Notese que el lımite s ! p1 es equivalente a evaluar la funcion resultante en s = p1. No obstante,

formalmente ponemos el lımite ya que si no simplificamos la funcion cancelando terminos como hemos

32

hecho hasta el momento y evaluamos directamente, obtendremos una indeterminacion. Con el lımite

evitamos ese error de d definicion y en los casos anteriores hubiera sido mas correcto tambien expre-

sarlo ası.

Finalmente, para pasar al dominio temporal la expresion de F (s) descompuesta en fracciones simples

resultante de (70) y en particular los terminos con denominador (sp1)k, haremos uso de la propiedad

de multiplicacion por t (propiedad 5), que de forma generica nos decıa

Ltnf(t) = (1)ndn F (s)

dsn(75)

Partimos de la relacion ya vista en los casos anteriores

ep1t ! 1

s p1(76)

y aplicamos dicha propiedad. Para n = 1, obtendrıamos

tep1t ! (1) dds

1

s p1

=

1

(s p1)2(77)

De la misma forma, para n = 2 obtendrıamos

t2ep1t ! d2

ds2

1

s p1

=

2

(s p1)3(78)

Vemos que a traves de sucesivas multiplicaciones por t vamos consiguiendo los terminos 1(sp1)k

. Sim-

plemente hay que tener en cuenta los factores adicionales que van apareciendo para finalmente llegar

a la relacion que nos interesa y que es

tnep1t ! n!

(s p1)n+1=) tn

n!ep1t ! 1

(s p1)n+1(79)

Con todo esto ya somos capaces de trabajar con raıces multiples. Veamos a continuacion un ejemplo.

Ejemplo: anti-transformar F (s) = s+2(s+1)2(s+3)

En primer lugar hacemos la descomposicion en fracciones simples segun lo que hemos dicho, resultando

F (s) =A11

(s+ 1)2+

A12

s+ 1+

A2

s+ 3(80)

y calculamos los coeficientes haciendo

A11 =s+ 2

(s+ 1)2(s+ 3)(s+ 1)2 =

1 + 2

1 + 3= 0, 5

A12 = lıms!1

d

ds

(s+ 1)2

s+ 2

(s+ 1)2(s+ 3)

= lım

s!1

1 · (s+ 3) (s+ 2) · 1

(s+ 3)2

= 0, 25 (81)

A2 =(s+ 2)(s+ 3)

(s+ 1)2(s+ 3)

s=3

= 0, 25 (82)

33

con lo que nos queda

F (s) =0, 5

(s+ 1)2+

0, 25

s+ 1 0, 25

s+ 3(83)

Ahora ya podemos anti-transformar y nos queda

f(t) = u(t)0, 5 t et + 0, 25 et 0, 25 e3t

(84)

Caso 4: Grados numerador y denominador iguales

Por ultimo, supongamos que F (s) tiene la forma

F (s) =pn

sn + pn1s

n1 + . . .+ p0qn

sn + qn1sn1 + . . .+ q0

(85)

En este caso, podemos hacer la division de polinomios y nos quedarıa:

F (s) =pn

qn

+

pn1 pn

qnqn1

sn1 + . . .+

p0 pn

qnq0

qn

sn + qn1sn1 + . . .+ q0

(86)

La segunda parte ya sabemos solucionarla con los casos 1-3 y la primera parte tendrıa como transfor-

mada pnqn(t), ası que f(t) serıa

f(t) = u(t)

pn

qn

(t) + . . .

(87)

Con esto acabamos la transformacion inversa de Laplace y a continuacion veremos dos aplicaciones

importantes de la transformada de Laplace.

3. Aplicaciones de la Transformada de Laplace

Dos de las aplicaciones mas importantes de la transformada de Laplace para un ingeniero de telecomu-

nicacion o electronico son la resolucion de ecuaciones diferenciales ordinarias y el analisis de circuitos

con elementos capacitivos y reactivos. A continuacion emplearemos las herramientas desarrolladas

hasta el momento en estas dos aplicaciones concretas.

3.1. Resolucion de ecuaciones diferenciales ordinarias

Veremos esta aplicacion a traves de un ejemplo y para ello vamos a rescatar el circuito RC del principio

del tema dando valores a los elementos como vemos en la figura. Vimos que el circuito debıa responder

a la siguiente ecuacion diferencial (ya sustituyendo los valores)

6 = 3dv

c

(t)

dt+ v

c

(t) (88)

34

+

+ -

+

-vC(t)

i(t)

R = 1M

C = 3µFV = 6V

A partir de la ecuacion diferencial, debemos sustituir cada uno de los terminos por su transformada

de Laplace. En este caso tendrıamos

L6 =6

sLv

c

(t) = Vc

(s) (89)

L3dv

c

(t)

dt

= 3(s V

c

(s) vc

(0)) = 3 s Vc

(s) 3 vc

(0)

Suponiendo que la tension inicial del circuito es nula (vc

(0) = 0), la ecuacion diferencial se transfor-

marıa en el dominio s en6

s= 3 s V

c

(s) + Vc

(s) = (3s+ 1)Vc

(s) (90)

que es una ecuacion algebraica facil de resolver. Aislando Vc

(s) llegamos a la solucion en el dominio

de Laplace, que es

Vc

(s) =6

s(3s+ 1)(91)

No obstante, nos interesa la solucion en el dominio temporal. Como ya sabemos anti-transformar,

empezamos por descomponer Vc

(s) en fracciones simples segun

Vc

(s) =6

s(3s+ 1)=

6/3

s(s+ 1/3)=

A1

s+

A2

s+ 1/3(92)

y calculamos los coeficientes como

A1 =6/3

s(s+ 1/3)s

s=0

=6/3

1/3= 6 (93)

A2 =6/3

s(s+ 1/3)(s+ 1/3)

s=1/3

=6/3

1/3 = 6

Ası nos queda

Vc

(s) =6

s(3s+ 1)=

6

s 6

s+ 1/3(94)

Finalmente ya podemos pasar al dominio temporal y nos queda

vc

(t) = 6(1 e13 t) (95)

35

donde comprobamos que la tension en el condensador es 0 inicialmente y este se va cargando de forma

exponencial hasta igualar la tension de la fuente.

Aunque aquı hemos visto la resolucion de ecuaciones diferenciales en base a un ejemplo, la forma de

proceder sirve para todos los casos. En este ejemplo en particular hemos visto, ademas, que la resolucion

de circuitos con condensadores requiere tratar de algun modo con ecuaciones diferenciales. Desde el

punto de vista de transformada de Laplace, existe un metodo mas sistematico para tratar circuitos

que tengan bobinas y condensadores. Es lo que estudiaremos a continuacion y con eso cerramos el

tema de transformada de Laplace.

3.2. Analisis de circuitos

El analisis de circuitos usando transformada de Laplace se podrıa plantear de la siguiente manera.

Primero podrıamos extraer las ecuaciones diferenciales por las que se rigen las tensiones o corrientes

en el circuito, luego las podrıamos transformar para resolver en el dominio s y una vez encontrada

la solucion pasar al dominio temporal. No obstante, esta manera de proceder podrıa ser complicada

y existe un metodo mas sencillo de llevar a cabo el analisis de circuitos. Lo que haremos es analizar

el circuito directamente en el dominio s aprovechandonos de que es posible interpretar bobinas y

condensadores como si fueran resistencias especiales (a las que llamaremos impedancias). Como ya

sabemos analizar un circuito que tenga unicamente resistencias, lo unico que nos quedara sera anti-

transformar la solucion alcanzada, pero tambien es algo que ya sabemos hacer.

Transformacion de los elementos

Una resistencia es un elemento o dispositivo que establece una relacion proporcional entre la corriente

que circula por ella y la tension que hay en sus bornes. Sabemos que la relacion tension-corriente en

bobinas y condensadores es algo mas complicada, pues es diferencial. No obstante, esta relacion se

puede simplificar en el dominio s y lo que pretendemos es que se parezca lo mas posible a algo pro-

porcional. Empecemos viendo que sucede cuando las condiciones iniciales son nulas y luego veremos

el caso general.

Condiciones iniciales nulas

Estudiemos primero la relacion V-I en el condensador cuando vc

(0) = 0 (ver la figura). Sabemos que

ic(t)

vc(t)C+ -

36

la relacion temporal es ic

(t) = C d vc(t)dt

. Si transformamos esta relacion al dominio s obtenemos

Ic

(s) = C sVc

(s) (96)

y si lo expresamos en forma de tension-corriente nos queda

Vc

(s)

Ic

(s)=

1

C s(97)

Precisamente esta relacion es la impedancia y se puede entender como una generalizacion del concepto

de resistencia. Dicho de otra forma, en el dominio transformado podrıamos ver al condensador como

una “resistencia” cuyo valor es 1/C s y por lo tanto, los mismos metodos de analisis que usabamos en

circuitos con resistencias en el dominio temporal serviran en circuitos con condensadores en el dominio

transformado. De forma grafica representaremos al condensador como en la figura.

1/Cs

+ -Vc(s)

Ic(s)

Analicemos ahora que sucede con una bobina, cuya ecuacion V-I es vL

(t) = Ld iL(t)dt

. Si transformamos

esta ecuacion al dominio s suponiendo iL

(0) = 0 obtendremos

VL

(s) = Ls IL

(s) ! VL

(s)

IL

(s)= Ls (98)

Ahora la impedancia en el dominio transformado vale Ls y por lo tanto podremos tratar una bobi-

na como si fuera una “resistencia” de valor Ls. Graficamente representaremos la bobina en ambos

dominios como en la figura.

iL(t)

+ -vL(t)

+ -VL(s)

IL(s)

Ls

Condiciones iniciales NO nulas

Si consideramos que las condiciones iniciales pueden ser no nulas, entonces no basta con representar

el condensador y la bobina como una impedancia. Hace falta hacer algo mas. Empezemos viendo

que sucede con el condensador. Si vc

(0) 6= 0, entonces (96) pasa a ser

Ic

(s) = C sVc

(s) Cvc

(0) (99)

37

y la relacion de proporcionalidad anterior deja de existir. Reescribimos la relacion anterior como

Vc

(s) =Ic

(s)

C s+

vc

(0)

s(100)

e identificamos la parte de proporcionalidad como antes a la que se le suma un “o↵set”. Este ultimo

termino lo podemos ver como un generador de las condiciones iniciales y circuitalmente podemos

representar al condensador con condiciones iniciales no nulas segun se ve en la figura (impedancia +

fuente).

1/Cs

+ -Vc(s)

Ic(s)

vc(0)/s

Otra posibilidad es representar al condensador como una impedancia en paralelo a una fuente de

corriente. Para ello empleamos el equivalente Thevenin-Norton y sabemos que la fuente de corriente

debe valer la tension de fuente inicial dividida por la impedancia, es decir, vc(0)/s1/C s

= C vc

(0). De esta

forma, conseguimos la representacion de la figura.

C vc(0)1

C s Vc(s)

+

-

En el caso de la bobina partimos de la relacion VL

(s) = LsIL

(s) LiL

(0) y vemos que ahora el

generador de tension toma el valor LiL

(0). Aplicando el teorema de Thevenin-Norton podemos

pasar a una configuracion compuesta por una fuente de corriente de valor iL(0)s

con la impedancia en

paralelo. Vemos ambas posibilidades en la siguiente figura.

+

-

+

-VL(s)

+

LiL(0)

IL(s)

Ls L siL(0)s

VL(s)

Por ultimo, cabe comentar que las resistencias se mantienen como impedancias de valor R puesto que

la relacion vR

(t) = R iR

(t) no cambia en el dominio transformado, donde tenemos VR

(s) = RIR

(s).

38

Ejemplos de aplicacion

Ejemplo1:

Supongamos que queremos analizar el circuito de la siguiente figura y, por ejemplo, nos interesa calcular

la evolucion de la tension en el condensador.

i(t)+

-vC(t)

10

110F

vc(0) = 20V

Para poder analizarlo directamente en el dominio s como si se tratase de un circuito con resistencias

y generadores, debemos transformar primero los elementos. En este caso solo hay que transformar el

condensador (puesto que la resistencia se mantiene como impedancia de valor 10). Dado que existe

una condicion inicial no nula, el condensador se convierte en una impedancia mas un generador. El

circuito transformado resulta ser el de la figura siguiente.

+

-

+Vc(s)I(s)

10

1C s = 10

s

vc(0)s = 20

s

Dado que el objetivo era encontrar la tension en el condensador, la identificamos primero en el dominio

transformado como

Vc

(s) =vc

(0)

s I(s)

C s(101)

y una vez hallada la corriente I(s) en el circuito transformado, solo nos quedara anti-transformar para

encontrar el resultado buscado.

Ejemplo 2:

Supongamos ahora que queremos analizar el siguiente circuito, donde las condiciones iniciales de la

bobina y condensador son no nulas.

39

+ +

-vC(t)C L iL(t)vs(t)

R1 R2

Como en el caso anterior, transformamos los elementos para obtener el circuito transformado (ver

figura).

+

R1 R2

+

1C s

vc(0)s

Vs(s) LsiL(0)

s

Una vez transformado, aplicamos las herramientas clasicas de analisis de circuitos (leyes de Kircho↵,

equivalente Thevenin-Norton, principio de superposicion, . . . ) para hallar la tension o corriente que

deseemos encontrar. Por ejemplo, podrıamos aplicar el equivalente Thevenin-Norton para pasar de 3

a 2 mallas como muestra la figura.

+

R1 R2

+

1C s

vc(0)s

Vs(s)

Ls

iL(0)L

+

Una vez obtenidas las magnitudes deseadas, solo nos queda anti-transformar para conocer la evolucion

temporal de las corrientes y tensiones en el circuito.

40

Tema 3: Funcion de Transferencia de un Sistema

Antoni Morell y Rosana Rodrıguez

18 de marzo de 2014

1. Definicion

La funcion de transferencia de un sistema LTI se define como la relacion (cociente) entre la transfor-

mada de Laplace de la salida o respuesta del sistema Y (s) = Ly(t) y la transformada de Laplace de

la entrada o funcion excitadora X(s) = Lx(t) suponiendo condiciones iniciales nulas (sistema en

estado cero) y una unica excitacion. Ası tenemos

H(s) =Y (s)

X(s)(1)

Si convertimos la ecuacion anterior a Y (s) = H(s)X(s) y aplicamos la propiedad de convolucion para

volver al dominio temporal (propiedad 14 del tema 2), obtenemos

L−1Y (s) = L−1H(s)X(s) −→ y(t) = h(t) ∗ x(t) (2)

con lo que ya podemos anticipar que, en realidad, la funcion de transferencia corresponde a la transfor-

mada de Laplace de la respuesta impulsional en sistemas lineales e invariantes con condiciones iniciales

nulas.

En caso de definir el sistema en forma de ecuacion diferencial como

bndny(t)

dtn+ bn−1

dn−1y(t)

dtn−1+ . . .+ b1

dy(t)

dt+ b0y(t) = am

dmx(t)

dtm+ . . .+ a1

dx(t)

dt+ a0x(t), (3)

su transformacion al dominio s (suponiendo condiciones iniciales nulas) nos lleva a(bns

n + bn−1sn−1 + . . .+ b1s+ b0

)Y (s) =

(ams

m + am−1sm−1 + . . .+ a1s+ a0

)X(s), (4)

de lo que concluimos que

H(s) =Y (s)

X(s)=ams

m + am−1sm−1 + . . .+ a1s+ a0

bnsn + bn−1sn−1 + . . .+ b1s+ b0(5)

Finalmente, llamaremos orden de la funcion de transferencia al orden del polinomio que se encuentra

en el denominador.

41

Utilidad de la funcion de transferencia

La funcion de transferencia nos sirve para caracterizar un determinado sistema de una forma compacta

(igual que lo hace su respuesta impulsional) pero, ademas, nos permite calcular la salida a cualquier

entrada de forma habitualmente mas simple que haciendo la integral de convolucion. En otras palabras,

es preferible transformar la senal de entrada, hacer el producto con H(s) y finalmente anti-transformar

el resultado obtenido que abordar la convolucion directamente. Veamoslo en un ejemplo muy simple.

Consideremos el circuito de la figura siguiente y definamos la entrada vi(t) como la tension de generador

y la salida v0(t) como la tension en bornes de la resistencia R2.

+

R1

vi(t) R2 v0(t)

+

-

A priori, como se trata de un circuito muy simple, vemos facilmente que v0(t) = R2R1+R2

vi(t). No

obstante, hagamos un pequeno ejercicio academico y abordemoslo como un sistema generico. Como

ya hemos dicho, una opcion para caracterizar el sistema es obtener su respuesta impulsional. Para ello

fijamos vi(t) = δ(t) y obtenemos v0(t) = h(t) = R2R1+R2

δ(t). Ahora, para calcular la salida a cualquier

entrada deberıamos hacer

v0(t) = h(t) ∗ vi(t) =

∫ ∞0

h(t− τ)vi(τ)dτ =

∫ ∞0

vi(τ)R2

R1 +R2δ(t− τ)dτ (6)

=R2

R1 +R2

∫ ∞0

vi(τ)δ(t− τ) =R2

R1 +R2vi(t)

Intuimos en este caso tan simple que el hecho de tener que calcular una integral para nada facilita el

calculo.

Por contra, si calculamos H(s) = Y (s)X(s) obtenemos

H(s) =R2

R1 +R2(7)

Ahora la salida se obtiene haciendo el producto V0(s) = H(s)Vi(s). Es cierto que hara falta transformar

primero vi(t) y luego anti-transformar V0(s), pero normalmente resultara menos complejo que integrar

directamente. Ademas, como veremos mas adelante, el estudio de H(s) nos permite un analisis mas

profundo y a la vez simple del sistema.

42

2. Determinacion de la Funcion de Transferencia a Partir de las

Respuestas al Impulso Unidad y al Escalon Unitario

A la practica, determinaremos la funcion de transferencia de un sistema inyectandole senal y midiendo

su respuesta, todo ello a nivel temporal. Lo ideal (mas practico) serıa inyectar al sistema el impulso

unitario δ(t), puesto que con solo anti-transformar la salida y(t) = h(t) nos valdrıa. No obstante, a

veces resulta complicado generar un impulso unitario y es mucho mas practico usar el escalon unidad.

Por ejemplo, si nuestro sistema es un circuito y definimos la entrada al sistema como la tension de

generador, entonces aplicar u(t) a la entrada es equivalente a conectar el circuito usando una fuente

de tension constante. En cualquiera de los dos casos, es sumamente importante que el sistema se en-

cuentre en estado cero antes de hacer el experimento.

Veamos a continuacion los dos casos descritos:

1. Si x(t) = δ(t), entonces y(t) = h(t) ∗ δ(t) = h(t). En el dominio transformado X(s) = 1 y por

lo tanto Y (s) = H(s), con lo que nos basta transformar la salida del sistema a nivel temporal

para obtener su funcion de transferencia.

2. Si x(t) = u(t), entonces y(t) = h(t)∗u(t). En el dominio transformado X(s) = 1/s y por lo tanto

Y (s) = H(s)/s, con lo que H(s) = s Y (s). En este caso, para hallar H(s) deberemos transformar

la salida del sistema al dominio s y luego simplemente la multiplicaremos por s.

Ejemplo de aplicacion: Supongamos que para cierto sistema, la respuesta al escalon unidad en estado

cero es y(t) =(1− e−3t

)u(t). Encontrar H(s).

En este caso transformamos primero y(t) al dominio de Laplace, resultando en

Y (s) =1

s− 1

s+ 3(8)

y luego multiplicamos por s para finalmente encontrar la funcion de transferencia. Ası resulta

H(s) = s Y (s) = 1− s

s+ 3(9)

Ahora ya podemos conocer la respuesta a cualquier entrada del sistema. Simplemente hay que transfor-

mar la entrada al dominio de Laplace, multiplicarla por H(s) y anti-transformar el resultado obtenido.

3. Diagrama de Zeros y Polos

Como ya vimos en el tema 2, todo polinomio de orden n se puede descomponer, por el teorema

fundamental del algebra, en n raıces (contando multiplicidades). Cuando H(s) sea una division de

polinomios en s, es decir, H(s) = N(s)/D(s), entonces podremos expresarla como

H(s) = K(s− z1) . . . (s− zm)

(s− p1) . . . (s− pn)(10)

43

y diremos que n es el grado de la funcion de transferencia, o sea, el grado del polinomio denominador.

Como ya vimos en el tema anterior, llamaremos ceros de H(s) a las raıces del polinomio numerador

y polos de H(s) a las raıces del polinomio denominador.

Como tambien sabemos, s es una variable compleja que descomponemos segun s = σ + jω. Llama-

remos plano complejo o plano s al plano de dimension 2 que forman todos los valores de s con

σ ∈ (−∞,+∞) y ω ∈ (−∞,+∞). En este plano se representan los ceros de H(s) con un cırculo ()y sus polos con una cruz (×). La posicion de ambos en el plano s, ası como el valor de K, es lo que

finalmente determina la respuesta del sistema y tambien algunas de sus propiedades como veremos en

el siguiente apartado.

Ejemplos de representacion:

σ

x

x

H(s) = K s+2(s−j)(s+j) H(s) = K s+3

[s−(1+j)][s−(1−j)]

σ

x

x

4. Estabilidad

Una de las propiedades fundamentales de cualquier sistema es su estabilidad, pues un sistema inestable

pocas veces tendra utilidad practica. En este caso son los polos de la funcion de transferencia quienes

determinan si un sistema es estable o no para una entrada cualquiera, siempre que esta este acotada.

Consideremos ahora el sistema de la figura, inicialmente en estado cero,

H(s)X(s) Y (s)

donde la salida vale Y (s) = H(s)X(s). Si quisieramos volver al dominio temporal para encontrar

y(t), deberıamos descomponer Y (s) en fracciones simples segun ya hemos visto en el tema anterior.

Supongamos que el producto H(s)X(s) da lugar a n fracciones simples correspondientes a los n polos

de H(s) mas otras l fracciones simples correspondientes a las l raıces del denomindador de la senal de

44

entrada X(s). En este caso tenemos

Y (s) =A1

s− p1+ . . .+

Ans− pn

+B1

s− s1+ . . .+

Bls− sl

(11)

Por otro lado, llamaremos componente libre a la respuesta que el sistema genera de manera intrınseca

pero que no esta relacionada con la forma temporal de la senal de entrada y denominaremos com-

ponente forzada a la parte de la respuesta que es debida directamente a la entrada, es decir, que

comparte su misma forma temporal.

Si nos fijamos de nuevo en (11) veremos que ya se ha separado en dos grupos de fracciones simples: i)

las correspondientes a las raıces del denominador de H(s) (los polos del sistema) y ii) las correspon-

dientes a las raıces del denominador de la senal de entrada X(s). Si ahora nos planteasemos pasar al

dominio temporal, resulta evidente que el segundo grupo de fracciones simples darıa formas de onda

iguales a las de la senal de entrada (modificadas solo por el coeficiente Bi correspondiente) mientras

que el segundo grupo darıa lugar a formas de onda que el sistema genera por sı mismo y que, salvo

por los coeficientes Ak, no dependen de cual es la entrada.

Llegados a este punto, disponemos de herramientas suficientes para plantearnos cuando un sistema es

estable y cuando no. Recordemos del tema 1 que un sistema es estable por definicion si la salida a

cualquier entrada acotada es tambien acotada. Teniendo esto en cuenta y volviendo a la expresion de

Y (s) en (11), vemos claramente que la componente forzada de la respuesta no influye en la estabilidad

del sistema, ya que si la entrada es estable, esa parte de la salida tambien lo sera (los coeficientes son

siempre finitos). Por lo tanto, la estabilidad del sistema tiene que venir determinada por la componente

libre. Intuitivamente, si un sistema es estable esperaremos que la respuesta libre tienda a desaparecer

con el avance del tiempo, es decir, que exista un cierto instante t0 a partir del cual la componente

libre sea nula o despreciable y unicamente nos quede la respuesta forzada. Siguiendo esta misma idea

podemos definir:

Regimen transitorio: intervalo de tiempo en el que la componente libre de la respuesta es osten-

sible frente a la componente forzada.

Regimen permanente: intervalo de tiempo en el que la componente libre se puede considerar nula

o despreciable y queda unicamente la parte forzada de la respuesta.

Formalmente, diremos que un sistema es estable si la componente libre de la respuesta tiende a cero

cuando el tiempo tiende a infinito. Ademas, como ya se ha visto, un sistema es estable independien-

temente de la excitacion a la que es sometido. A continuacion veremos la relacion entre la respuesta

libre del sistema y su diagrama de ceros y polos.

Relacion entre Respuesta Libre y Diagrama de Polos y Ceros

A continuacion veremos los distintos tipos de polos que podemos encontrar para analizar a continuacion

su efecto en la respuesta del sistema.

a) Polos reales con parte real negativa.

45

Supongamos que tenemos un polo simple en p = −α. Entonces, su anti-transformada tendra for-

ma de exponencial decreciente, es decir, sera del tipo Ae−αtu(t). Vemos que da lugar a una

respuesta que se atenua con el tiempo. Incluso si el polo hubiera sido multiple, una respuesta del

tipo Atke−αtu(t) tambien se atenuarıa con el tiempo puesto que la exponencial decrece siempre

mas rapido que el termino tk para un k dado. Vemos tambien que a mayor valor de α (polo

mas negativo) mayor es la velocidad de decrecimiento. Por lo tanto, polos reales con parte real

negativa contribuiran a que el sistema sea estable.

b) Polos reales con parte real positiva.

Si el polo es real pero positivo sucede justo lo contrario. Si tenemos un polo simple en p = α,

este dara lugar a una respuesta de tipo Aeαtu(t), es decir, crecera exponencialmente con el

tiempo y como mayor sea el valor de α, tambien mayor sera su velocidad de crecimiento. Por

lo tanto, polos reales con parte real positiva haran que el sistema sea inestable. Notese que una

sola contribucion de este tipo hara que el sistema sea inestable. Dicho de otra forma, aunque un

sistema tenga 100 polos reales negativos y uno solo de positivo, el sistema sera inestable.

c) Polos complejo conjugados.

Parte real negativa.

Supongamos que tenemos un polo complejo conjugado del tipo p = −α±jω. Como vimos en

el tema 2, estos polos generan una respuesta del tipo Ae−αt cos (ωt+ φ)u(t) y se trata, por

lo tanto, de una cosnoide a frecuencia angular ω cuya amplitud decrece exponencialmente

segun e−αt. Como sucede en el caso a), como mas negativa es la parte real del polo mas

rapidamente decrece. Por lo tanto, estos polos contribuiran a la estabilidad del sistema.

Parte real positiva.

Consideremos ahora p = α± jω. En este caso la respuesta es del tipo Aeαt cos (ωt+ φ)u(t)

y ahora la amplitud de la cosenoide crece exponencialmente con el tiempo. Por lo tanto, un

polo de este tipo fuerza la inestabilidad del sistema.

Finalmente, si el polo tiene parte real nula, es decir p = ±jω, la respuesta sera A cos (ωt+ φ)u(t),

o sea, una cosenoide. En este caso el sistema serıa estable segun la definicion del tema 1 pero la

componente libre del sistema no se atenua con el tiempo. Es por eso que en este caso diremos

que el sistema es estable en sentido amplio o bien marginalmente estable. Lo mismo sucede si el

polo fuera real con parte real nula.

d) Polos multiples en el eje imaginario.

En este caso tendremos el escalon multiplicado por tn o bien un coseno multiplicado por tn. Por

lo tanto, el sistema sera inestable en este caso ya que la respuesta correspondiente a estas raıces

crece a infinto, aunque lo haga de forma mas lenta que la exponencial.

Una vez hemos analizado todos los casos, podemos anticipar la condicion de estabilidad de un sistema

mirando unicamente su funcion de transferencia H(s).

46

Estabilidad / Inestabilidad de un Sistema

Podemos clasificar los sistemas segun:

Sistema estable en sentido estricto: si todos sus polos tienen parte real estrictamente negativa

(no 0).

Sistema estable en sentido amplio: si todos sus polos tienen parte real estrictamente negativa o

bien 0 (en este caso con multiplicidad 1).

Sistema marginalmente estable: si tiene al menos un polo con parte real nula (pero unicamente

con multiplicidad 1).

Sistema inestable: si tiene al menos un polo con parte real estrictamente positiva o bien un polo

multiple con parte real nula.

La figura siguiente muestra, para los distintos tipos de polo, su forma temporal asociada y su condicion

de estabilidad / inestabilidad.

σ

x

x

x

x

x

x

x xx

INESTABLEESTABLE (S. ESTRICTO)

MARGINALMENTE ESTABLEESTABLE (S. AMPLIO)

5. Diagramas de Bode

Los diagramas de Bode son una representacion grafica de la respuesta de un determinado sistema a

un tipo de entrada muy particular: la cosenoide. Su utilidad practica se pone de manifiesto cuando

nos damos cuenta de que las senales con las que trabajan los sistema de comunicacion se pueden

descomponer como suma de senoides (de diferente amplitud y fase) segun la transformada de Fourier

(que veremos en el siguiente tema). Ası pues, conocer la respuesta del sistema a una cosenoide de

cualquier frecuencia y fase nos lleva a poder predecir la respuesta del sistema a cualquier senal de

entrada. De ahora en adelante, diremos que el sistema trabaja en regimen permanente senoidal

cuando a la entrada tiene una senoide que esta presente desde t = −∞.

47

5.1. Respuesta a la cosenoide. La senal exponencial como autofuncion de los sis-

temas LTI.

Veamos primero que queremos decir con que la exponencial es autofuncion de un sistema LTI cualquie-

ra. Pues bien, esto significa que si a la entrada de un sistema LTI inyectamos una senal exponencial

x(t) = est, entonces la salida tambien tendra la misma forma de exponencial multiplicada por un cier-

to factor constante al que llamamos autovalor. Esto es valido tanto para la transformada de Laplace

unilateral como bilateral. No obstante, ya que hasta ahora nos hemos centrado en la transformada de

Laplace uniltateral, vamos a considerar el sistema causal como indica la siguiente figura.

h(t)LTI y causal

x(t) = est y(t) = ! est

En este caso, la salida resulta

y(t) = x(t) ∗ h(t) =

∫ ∞−∞

h(τ)x(t− τ)dτ =

∫ ∞0

h(τ)es(t−τ)dτ = est∫ ∞0

h(τ)e−sτdτ = estH(s) (12)

Este resultado es interesante por su simplicidad pero tiene un problema desde el punto de vista

practico: una senal exponencial de tipo est con s complejo no es algo demasiado intuitivo ni util si

no es que la parte real de s sea nula (si es positiva la senal no esta acotada y si es negativa la senal

se desvanece). Por contra, una senal senoidal de tipo cos (ωt+ φ), correspondiente a una parte real

nula, resulta mucho mas manejable o interpretable y la salida del sistema a dicha senal nos permite

entenderlo mucho mejor ya que nos dice como este se comporta ante una determinada frecuencia

angular ω. Si utilizamos la formula de Euler, vemos que podemos expresar el coseno como suma de

exponenciales segun

cos (ωt+ φ) =1

2

(ejωt+φ + e−jωt−φ

)(13)

Ahora podemos encontrar la salida del sistema aplicando el resultado de (12), obteniendo

y(t) =1

2

(ejωtejφH(jω) + e−jωte−jφH(−jω)

)(14)

Centremonos un momento a ver que vale H(−jω). Empezando con la definicion de transformada de

Laplace, esto es

H(−jω) =

∫ ∞0

h(τ)ejωτdτ =

[∫ ∞0

h∗(τ)e−jωτdτ

]∗(15)

donde hemos conjugado dos veces teniendo en cuenta que en complejos se cumple (ab+ cd)∗ = a∗b∗+

c∗d∗ independientemente del numero de sumandos que haya. Si nos fijamos en la ultima expresion

encontrada y tenemos en cuenta que los sistemas seran reales en la practica, es decir h∗(τ) = h(τ),

entonces llegamos a

H(−jω) = H∗(jω) (16)

Por lo tanto, H(jω) y H(−jω) seran iguales en modulo y tendran fase opuesta, que denotaremos por

ψ(ω), por el hecho de ser uno el conjugado del otro. Aplicando esta idea al desarrollo inicial podemos

48

ver que

y(t) =1

2

(ejωtejφ|H(jω)|ejψ(ω) + e−jωte−jφ|H(jω)|e−jψ(ω)

)= |H(jω)| cos (ωt+ φ+ ψ(ω)) (17)

Llegamos a la conclusion que la salida a una senoide de frecuencia ω y fase φ es otra senoide a la

misma frecuencia pero desfasada una cierta cantidad marcada por la fase de H(jω) a dicha frecuencia

y escalada por el modulo de H(jω). Ası pues, nos interesaran estas dos magnitudes y esa informacion

es lo que representamos graficamente con los diagaramas de Bode de amplitud y fase.

5.2. Diagrama de Bode de Amplitud y Fase.

Como acabamos de decir, son la representacion de |H(jω)| y ψ(ω) = ∠H(jω) en funcion de la frecuen-

cia angular ω dada en rad/s, aunque tambien se pueden representar en funcion de la frecuencia natural

f dada en Hz, ambas relacionadas segun ω = 2πf . Habitualmente se representa en escala logarıtmica

tanto el eje de frecuencias como el de amplitudes para ambos diagramas. Esto es interesante para

poder representar ası en una misma grafica un amplio margen de frecuencias (el logaritmo comprime).

Diagrama de Bode de amplitud

En este caso en particular, aplicaremos 10 log10 |H(jω)|2 = 20 log10 |H(jω)| en el eje de amplitudes

para trabajar ası en dB (magnitud relativa habitualmente relacionada con medidas de potencia o

intensidad). La razon principal es que los distintos terminos de H(jω) que estan multiplicando y

dividiendo pasan a sumar y restar dadas las propiedades del logaritmo. Es decir, si representamos

H(jω) como H(jω) = KN(jω)D(jω) , entonces

|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10 |K|+ 20 log10 |N(jω)| − 20 log10 |D(jω)| (18)

Diagrama de Bode de fase

En este caso representaremos la amplitud en lineal pues la escala ira entre 0 y 2π.

En general, el diagrama de Bode es una herramienta para ver el comportamiento de un sistema de

verdad con senales de verdad y de una forma rapida. Ademas, nos permite incluso reconstruir la funcion

de transferencia del sistema si es necesario. Aunque gracias a las herramientas informaticas existentes

en la actualidad resulta relativamente facil dibujar el diagrama de Bode de un sistema, tambien

veremos como hacer una representacion asintotica (no exacta) de este (aplicado a circuitos) de forma

facil y sin necesidad de ordenadores. No obstante, antes de eso veremos como son los diagramas de

Bode de algunos sistemas muy basicos, ya que mas tarde los combinaremos para obtener los diagramas

de sistemas mas complejos.

Casos basicos

1. H(jω) = K (constante).

Este caso es muy elemental y tenemos

|H(jω)|2dB = 20 log10 |K| ∠H(jω) = 0 rad ∀ω (19)

49

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω

20 log10 |K|

10010−1 101 102 103 104

10010−1 101 102 103 104

que corresponde a

2. H(jω) = K/jω.

En este segundo caso, el diagrama de Bode de amplitud responde a

|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10K

ω= 20 log10 |K| − 20 log10 ω (20)

lo que corresponde a una recta con pendiente negativo (ojo, con ω en escala logarıtmica). ¿Que su-

cede si pasamos de una frecuencia ω0 a una 10 veces mayor, es decir, 10ω0? (Nota: Este salto

entre una frecuencia ω0 y otra 10 veces superior es lo que llamamos decada.) Queda claro que

para ω0 tendrıamos el resultado de (20) si sustituimos ω por ω0. Para 10ω0 tendrıamos

|H(j10ω0)|2dB = 20 log10 |H(j10ω0)| = 20 log10K

10ω0(21)

= 20 log10 |K| − 20 log10 ω0 − 20 log10 10 = 20 log10 |K| − 20 log10 ω0 − 20

Se trata pues de una recta de pendiente -20 dB/decada, o sea, entre una frecuencia cualquiera

y una frecuencia 10 veces superior a la primera caen 20 dB.

El diagrama de Bode de fase se encuentra a partir de

∠H(jω) = ∠ numerador− ∠ denominador = tan−10

K− tan−1

ω

0= 0− π

2∀ω (22)

Ası pues, el diagrama de Bode para este segundo caso resulta ser

50

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω

20 log10 |K|

ω0 10ω0

20 dB −π

2

10−1 101 102 103 104 10−1 101 102 103 104

3. H(jω) = jKω.

En este caso, el diagrama de Bode de amplitud es

|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10Kω = 20 log10 |K|+ 20 log10 ω (23)

y si multiplicamos la frecuencia por 10 tenemos

|H(j10ω)|2dB = 20 log10 |K|10ω = 20 log10 |K|+ 20 log10 ω0 + 20 (24)

Se trata entonces de una recta con pendiente +20 dB/decada.

El diagrama de Bode de fase responde a

∠H(jω) = tan−1Kω

0=π

2∀ω (25)

En resumen, tenemos

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω

20 log10 |K|

20 dB

ω0 10ω0

π

2

10−1 101 102 10−1 101 102 103 104

4. H(jω) = K/(jω)n.

En este ultimo caso el diagrama de Bode de amplitud es

|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10K

ωn= 20 log10 |K| − 20n log10 ω (26)

51

que corresponde a una recta de pendiente -20n dB/decada.

El diagrama de fase responde a

∠H(jω) = 0− ∠(jnωn) = −nπ2

(27)

y por lo tanto cada incremento de n corresponde a un incremento de −π2 en la fase.

En resumen, tenemos

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω

20 log10 |K|

ω0 10ω0

20n dB −nπ

2

10−1 103 104

10−1 101 102 103 104

5.3. Obtencion del Diagrama de Bode de un Circuito

Veremos como obtener el diagrama de Bode de un circuito a traves del estudio de un ejemplo sencillo:

un circuito RC como el de la figura, donde la tension de generador se define como la entrada y la

tension del condensador como la salida del sistema. Podemos ver tambien el circuito equivalente segun

Laplace, que usaremos para encontrar la funcion de transferencia del sistema.

+

vi(t) v0(t)

+

-

R

C

+ +

-

R

Vi(s) V0(s)1

sC

Lo primero que debemos hacer es calcular H(jω), es decir, H(s)∣∣s=jω

. Utilizando la formula del divisor

de tension, encontramos facilmente

V0(s) =1C s Vi(s)1C s +R

=Vi(s)

1 + sRC(28)

y de aquı

H(jω) =V0(s)

Vi(s)

∣∣∣∣s=jω

=1

1 + jωRC(29)

52

Por lo tanto, el diagrama de Bode de este circuito sera la representacion grafica de

|H(jω)|2dB = 20 log101√

1+(ωRC)2∠H(jω) = − tan−1 ωRC (30)

Para dibujar ambas funciones de forma facil y sin necesidad de soporte informatico, usaremos la

aproximacion asintotica del diagrama de Bode. Para ello calcularemos dos asıntotas especiales:

Asıntota de baja frecuencia

Cuando ω es muy pequeno, el termino jωRC del denominador se puede despreciar frente al 1.

Es por eso que aproximamos H(jω) ≈ 1 y por lo tanto las funciones a representar (amplitud y

fase) son

|H(jω)|2dB = 20 log10 1 = 0 dB ∠H(jω) = tan−1 01 = 0 rad (31)

Asıntota de alta frecuencia

En cambio, cuando ω es suficientemente grande el 1 del denominador se puede despreciar frente

al termino jωRC, por lo que la funcion se puede aproximar ahora por H(jω) ≈ 1jωRC y las

funciones a representar en el diagrama de Bode son

|H(jω)|2dB = 20 log101

ωRC= −20 log10 ωRC dB (32)

∠H(jω) = tan−10

1− tan−1

ωRC

0= −π

2rad

Si juntamos ambas aproximaciones en una misma grafica obtenemos

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω

−π

2

ωc = 1/RC

−20 dB/decada

−3 dB −π/2

ωc = 1/RC

donde vemos en trazo negro el diagrama de Bode asintotico y en trazo rojo el diagrama real. Vemos en

la figura que se ha marcado una frecuencia en particular, la frecuencia de corte o ωc. Esta frecuencia

es el punto de corte (en ampitud) entre las asıntotas de alta y baja frecuencia, es decir

12 =

(1

RCωc

)2

−→ ωc =1

RC(33)

53

En esa frecuencia, ademas, sabemos que el diagrama de Bode en amplitud real esta 3 dB por debajo

del asintotico y que el diagrama de Bode en fase real tiene una fase de π/4 en ese punto. Podemos

comprobarlo haciendo

H(jω)∣∣ω= 1

RC=

1

1 + j(34)

y por lo tanto

|H(jω)|2dB = 20 log101√2

= −3 dB ∠H(jω) = 0− tan−1 11 = −π

4 rad (35)

Visto esto, el mensaje es que una vez dibujado el diagrama de Bode asintotico y conociendo la fre-

cuencia de corte ωc, dibujar una buena aproximacion del diagrama de Bode real no resulta difıcil.

Analisis frecuencial de sistemas mas completos

Consideremos ahora el siguiente circuito con R = 21 Ω, L = 1 H y C = 1/20 C.

+

vi(t) v0(t)

+

-

R

C

L

En este caso, el analisis en el dominio de Laplace nos da la siguiente funcion de transferencia

H(s) =20/s

21 + s+ 20/s=

20

s2 + 21s+ 20=

20

(s+ 1)(s+ 20)=

1

(s+ 1)(s20 + 1

) (36)

Vemos que hemos expresado dicha funcion en terminos del tipo (1+a s). En este caso solo ha sido en el

denominador, pero si el numerador tuviera grado mayor que uno, harıamos lo mismo. La razon de esto

es que intentamos reproducir lo visto en el circuito RC donde H(s) = 1/1+RCs para poder aprovechar

los resultados ya vistos. Calculemos pues la respuesta frecuencial de este circuito considerando dicha

descomposicion como

H(jω) =1

(1 + jω)(1 + j ω20

) (37)

Ahora podemos calcular el diagrama de Bode de amplitud como

|H(jω)|2dB = 20 log10

∣∣∣∣∣ 1

(1 + jω)(1 + j ω20

)∣∣∣∣∣ = 20 log10

∣∣∣∣ 1

(1 + jω)

∣∣∣∣+ 20 log10

∣∣∣∣∣ 1(1 + j ω20

)∣∣∣∣∣ (38)

y el de fase como

∠H(jω) = ∠ 1

1 + jω+ ∠ 1

1 + j ω20(39)

54

de forma que los terminos que aparecen ya los habıamos visto en el circuito RC. Para dibujar el

diagrama de Bode lo haremos por partes. Por ejemplo, en amplitud sabemos que a partir de la fre-

cuencia angular 1 rad la respuesta decae a razon de 20 dB/decada debidos al primer polo. Como el

segundo polo provoca otra pendiente de -20 dB/decada a partir de la frecuencia angular 20 rad, en

total tendremos -40 dB/decada. Ademas, si los polos estan lo suficientemente alejados, los -3 dB en la

frecuencia de corte siguen siendo validos. En fase tendremos un primer polo que provoca un desfase

de −π/2 rad y un segundo polo que provoca un desfase adicional de otros −π/2 rad. Podemos ver

todo lo dicho en la siguiente figura.

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω

−20 dB/decada

−3 dB

1 20 201

−π-40 dB/decada

−3 dB−π/2

−π/4

Ejemplo de aplicacion: Dibujar el diagrama de Bode de modulo y fase de la siguiente funcion de

transferencia

H(s) = 4s+ 2

(s+ 1)(s+ 3)(40)

Lo primero que debemos hacer es expresar la respuesta frecuencial de la forma adecuada, haciendo

H(jω) = 4jω + 2

(jω + 1)(jω + 3)=

8

3

1 + j ω2(1 + jω)(1 + j ω3 )

(41)

Para facilitar mas las cosas, podemos descomponer H(jω) en terminos de los que ya sabemos como

hacer el diagrama de Bode, es decir

H(jω) =8

3· (1 + j

ω

2) · 1

1 + jω· 1

1 + j ω3= H1(jω) ·H2(jω) ·H3(jω) ·H4(jω) (42)

Analicemos cada uno de los terminos:

1. H1(jω) = 83

Este termino nos dara una amplitud constante de 20 log1083 = 8, 52 dB y una fase de 0 rad.

2. H2(jω) = 1 + j ω2

Este termino contribuira en amplitud con una recta de pendiente +20 dB/decada a partir de su

frecuencia de corte, que en este caso es ωc = 2, y con una fase que pasara de 0 rad a π/2 rad.

55

3. H3(jω) = 1 + jω

Este termino contribuira en amplitud con una recta de pendiente -20 dB/decada a partir de su

frecuencia de corte, que en este caso es ωc = 1, y con una fase que pasara de 0 rad a −π/2 rad.

4. H4(jω) = 1 + j ω3

De forma semejante al anterior, este termino contribuira en amplitud con una recta de pendiente

-20 dB/decada a partir de su frecuencia de corte, que en este caso es ωc = 3, y con una fase que

tambien pasara de 0 rad a −π/2 rad.

Una vez hecho este analisis, dibujamos en el siguiente grafico el diagrama de Bode asintotico de los

distintos terminos solapando unos con otros.

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω−20 dB/decada

1

−π/2

2

8, 52 dB+20 dB/decada

1 3

π/2

2−6 dB−9, 54 dB

Finalmente, dibujamos el diagrama de Bode asintotico del conjunto y a partir de este aproximamos el

diagrama de Bode del sistema tal y como aparece en la figura siguiente.

20 log10 |H(jω)|

log10 ω

∠H(jω)

log10 ω−20 dB/decada

1−π/2

8, 52 dB1 32

2, 52 dB

32

56

Tema 4: La Transformada de Fourier

Antoni Morell y Rosana Rodrıguez

22 de mayo de 2014

1. Definicion de la transformada de Fourier

1.1. Recordatorio: Autofunciones y autovalores de la ecuacion de convolucion

En el Tema 3 vimos que la senal x(t) = est era autofuncion de la ecuacion de convolucion. Esto es,

si la entrada a un sistema caracterizado por h(t) es x(t) = est, entonces la salida es y(t) = H(s)est,

donde H(s) es lo que llamamos autovalor.

x(t) = est

y(t) = x(t) ∗ h(t)= H(s)est

h(t)/H(s)

Verifiquemoslo de nuevo,

y(t) =

∫ ∞

−∞x(t− τ)h(τ)dτ =

∫ ∞

−∞es(t−τ)h(τ)dτ = est

∫ ∞

−∞e−sτh(τ)dτ = H(s)est (1)

donde identificamos H(s) =∫∞−∞ e−sτh(τ)dτ , que se corresponde con la transformada (bilateral) de

Laplace de h(t). En este caso se llama bilateral porque integramos desde −∞ y no de 0, pero coinciden

para sistemas causales (los que nos interesan) ya que h(t) = 0 para t < 0. Recordemos que s es una

variable compleja con parte real σ y parte imaginaria ω, es decir, s = σ+ jω y que gracias a la trans-

formada de Laplace podıamos trabajar con las senales y sobretodo con los sistemas en el dominio s de

forma mas simple que directamente en el dominio temporal. Ahora nos preguntamos si particularizan-

do s de forma que σ = 0, o sea, haciendo s = jω podrıamos hacer algo parecido. La transformacion

resultante se llama transformada de Fourier y es lo que estudiaremos en este tema, ya que tiene sus

particularidades con respecto la transformada de Laplace. La transformada de Fourier estara asociada

a frecuencia, ya sea angular ω medida en rad/s o bien frecuencia f medida en Hz o s−1, siendo ω = 2πf .

Bajo esa nueva idea tendremos

H(w) =

∫ ∞

−∞e−jωτh(τ)dτ (2)

como la transformada de Fourier de h(t) y, de la misma manera que antes, y(t)|x(t)=ejωt = H(w)ejwt.

Intuitivamente, dado que ejωt es una senal de tipo senoidal, la transformada de Fourier nos sera util

57

cuando sea posible expresar la senal de entrada como suma (integral) de senoides, es decir, si x(t) =∑

i aiejωit. Entonces la salida se determinara facilmente como y(t) =

aiH(ωi)ejωit.

A partir de este momento, trabajaremos con frecuencia f (es lo mismo pero quiza un poco mas

comodo), ası que de ahora en adelante escribiremos la transformada de Fourier como

H(f) =

∫ ∞

−∞e−j2πfτh(τ)dτ (3)

1.2. La transformada de Laplace versus la transformada de Fourier

Si planteamos la transformada de Fourier como una particularizacion de la transformada de La-

place, inmediatamente nos surge la pregunta: ¿Por que es necesaria esta nueva transformacion? ¿No

vale solo con la de Laplace?

En primer lugar, esta claro que la transformada de Laplace es mas generica. Desde el punto de vista

de senales y sistemas, esto tiene las siguientes ventajas:

Permite transformar un mayor numero de senales. Por ejemplo, como veremos mas adelante, la

transformada de Fourier no nos permite transformar senales que no decaen en el tiempo (las

senales periodicas sı, pero como veremos, son un caso especial). Es decir, habra senales como por

ejemplo x(t) = t u(t) que no se pueden transformar con Fourier ya que la integral no converge.

El hecho de trabajar en dos dimensiones nos aporta mas informacion. En otras palabras, con

la transformada de Fourier no podremos estudiar el sistema desde el punto de vista de polos y

ceros como hemos hecho con Laplace.

En cambio, cuando la transformada de Fourier aplique, nos beneficiamos de:

Mayor simplicidad en la transformacion.

Mayor facilidad para trabajar en el dominio transformado, ya que tenemos mas propiedades

(herramientas) que emplear.

Mas facil de interpretar ya que solo tenemos una dimension. De hecho, ya lo hemos visto en los

diagramas de Bode, donde se particularizaba para s = jω.

En general, podemos afirmar que la transformada de Laplace sera mas util en el estudio de sistemas

y, por contra, la transformada de Fourier sera mas util en el analisis de senales. Fijemonos que la

transformada de Laplace trata problemas de valor inicial (se fijan las condiciones iniciales) y esto ya

nos va bien des del punto de vista de sistema. En senales esto no es ası. Por ejemplo, no podemos

fijar un valor inicial a la senal x(t) = A cosω0t ya que se extiende en todo t. En Fourier, a cambio de

trabajar en regimen permanente senoidal, esto es posible.

1.3. Definicion formal

Tal y como hemos anticipado en (3), la transformada de Fourier de una senal, digamos x(t) y que

denotaremos X(f) = Fx(t), se define como

X(f) =

∫ +∞

−∞x(t)e−j2πftdt (4)

58

y desde nuestro punto de vista, debemos interpretarla como una transformacion que nos dice cual es el

contenido frecuencial de la senal, es decir, cual es la contribucion de una determinada frecuencia f0 a

la senal x(t). Intuitivamente, fijemonos que para encontrar X(f)|f=f0 = X(f0), multiplicamos primero

x(t) por e−j2πf0t y luego integramos para todo t. Lo que estamos haciendo con esto es “comparar”

la senal x(t) con un tono puro a f0 (coseno en parte real y seno en parte imaginaria). Si se parecen

mucho, X(f0) tomara un valor grande y en cambio, si no se parecen, el valor sera bajo.

A continuacion se muestran dos grupos de condiciones que son suficientes (aunque no necesarias)

para que exista X(f) (con un solo grupo hay suficiente):

1. x(t) es de cuadrado integrable, es decir∫ +∞−∞ |x(t)|

2dt <∞.

2. Condiciones de Dirichlet:

x(t) es absolutamente integrable, es decir∫ +∞−∞ |x(t)|dt <∞.

x(t) debe tener un numero de maximos y mınimos finito dentro de un intervalo finito.

Contraejemplo: x(t) = sin(

2πt

)

en el intervalo t ∈ [−0,5, 0,5]

−0.5 0 0.5−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

x(t) debe tener un numero de discontinuidades finitas dentro de un intervalo finito. Con-

traejemplo:

1/2 3/4 7/8 1 t

x(t)

Esta funcion esta definida para t ∈ [0, 1] y vale x(t) = 1 para t ∈ [0, 1/2] y x(t) = 12n−1 para

t ∈ [2n−1−12n−1 , 2

n−12n ] con n ∈ N, n > 1.

59

1.4. La transformada inversa de Fourier

Dada la senal en el dominio frecuencial X(f), la transformada inversa de Fourier, que denotaremos

x(t) = F−1X(f), se define como

x(t) =

∫ +∞

−∞X(f)ej2πftdf (5)

y nos permite recuperar la senal temporal.

Para comprobarlo, calculemos primero∫ +∞−∞ ej2πftdf . El calculo es el siguiente

∫ +∞

−∞ej2πftdf = lım

W→∞

[∫ W

−Wej2πftdf

]

= lımW→∞

[

ej2πft

j2πt

W

−W

]

(6)

= lımW→∞

[

sin 2πWt

πt

]

= lımW→∞

[2W sinc(2Wt)] = δ(t)

donde vemos que la suma de todos los tonos posibles (de cualquier frecuencia) da como resultado una

delta.

A partir de aquı, podemos decir

h(t) = T [δ(t)] = T [

∫ +∞

−∞ej2πftdf ] =

(

si el sistema

es lineal

)

=

∫ +∞

−∞T [ej2πft]df (7)

Es decir, de la misma forma que la integral de convolucion era una combinacion lineal de infinitas

respuestas a deltas desplazadas, ahora buscamos la respuesta a una suma (infinita) de senales ex-

ponenciales. Pero ya hemos visto antes que la exponencial es una autofuncion del sistema, es decir

T [ej2πft] = H(f)ej2πft, ası que nos queda

h(t) =

∫ +∞

−∞H(f)ej2πftdf (8)

llegando entonces a la definicion de la transformada inversa de Fourier.

2. Transformada de senales basicas

1. Transformada de δ(t):

Fδ(t) =

∫ +∞

−∞δ(t)e−j2πftdt =

∫ +∞

−∞δ(t)dt = 1 (9)

De forma compacta, escribiremos las transformadas como x(t) ←→ X(f). Ası pues, para este

caso nos queda:

δ(t)←→ 1 (10)

2. Transformada de δ(t − t0):

Fδ(t − t0) =

∫ +∞

−∞δ(t − t0)e

−j2πftdt =

∫ +∞

−∞δ(t− t0)e

−j2πft0dt = e−j2πft0 (11)

60

Si lo expresamos como modulo y fase, vemos que X(f) = |X(f)|ejϕX (f) = 1 ej(−2πt0f). Por lo

tanto se trata de una senal en frecuencia de modulo constante 1 y de fase lineal con pendiente

−2πt0.

De forma compacta escribimos:

δ(t− t0)←→ e−j2πft0 (12)

3. Transformada de la senal constante x(t) = A:

FA =

∫ +∞

−∞Ae−j2πftdt = A lım

T→∞

[∫ T

−Te−j2πftdt

]

= Aδ(f), (13)

donde la integral se calcula tal y como hemos visto para la transformada inversa. Fijemonos que

existe una cierta “dualidad” en la transformada de Fourier: la transformada de la delta es una

constante y la de una constante es una delta.

De forma compacta escribimos:

A←→ Aδ(f) (14)

4. Transformada de h(t) = e−αtu(t) con α > 0 (en caso contrario la integral no converge):

Fe−αtu(t) =

∫ +∞

−∞e−αtu(t)e−j2πftdt =

∫ +∞

−∞e−(j2πf+α)tu(t)dt (15)

=

∫ +∞

0e−(j2πf+α)tdt =

e−(α+j2πf)t

−(α+ j2πf)

+∞

0

=1

α+ j2πf

Si descomponemos en modulo y fase obtenemos

|H(f)| =1

α2 + (2πf)2, ϕH(f) = − arc tg

2πf

α(16)

f

|H(f)|1

α

α

2π−

α

1√

f

90º

-90º

ϕH(f)

Como vemos, se trata de un filtro paso-bajo. Fijemonos, ademas, que H(f) es una funcion

hermıtica, es decir H(f) = H∗(−f). Esto quiere decir que la parte real es una funcion par y la

parte imaginaria impar, o bien, como vemos en las graficas, que el modulo es una funcion par y

la fase una funcion impar.

De forma compacta escribimos:

e−αtu(t)←→1

α+ j2πf(17)

61

5. Transformada de h(t) = e−α|t| (tambien con α > 0):

Fe−α|t| =

∫ +∞

−∞e−α|t|e−j2πftdt =

∫ 0

−∞e(α−j2πf)tdt+

∫ +∞

0e−(j2πf+α)tdt (18)

=1

α− j2πf+

1

α+ j2πf=

α2 + (2πf)2

En este caso, el modulo tiene una forma parecida al caso anterior pero con un decaimiento mas

rapido, ya que para f = α/2π el modulo decae a la mitad de su maximo. En cambio, la fase

permanece constante a 0 ya que la transformada es real. Fijemonos que hemos pasado de una

senal real y par en el dominio del tiempo a otra tambien real y par en el dominio frecuencial.

De forma compacta escribimos:

e−α|t| ←→2α

α2 + (2πf)2(19)

6. Transformada de x(t) = AΠ(

tT

)

:

F

A Π

(

t

T

)

=

∫ +∞

−∞A Π

(

t

T

)

e−j2πftdt =

∫ +T/2

−T/2A Π

(

t

T

)

e−j2πftdt = (20)

= Ae−j2πft

−j2πf

+T/2

−T/2

= Ae−j2πfT/2 − ej2πfT/2

−j2πf=

=AT sinπfT

πfT= AT sinc(fT )

Aquı volvemos a ver como una senal real y par se convierte en otra tambien real y par, por lo

que con solo representar la parte real sera suficiente. Alternativamente, podemos representar el

modulo (valor absoluto de la sinc) y la fase (que tomara valores 1 o -1). En este caso, ademas,

observamos como a medida que x(t) se ensancha en tiempo, X(f) se estrecha en frecuencia y

viceversa.

f

x(t)

t

A

T/2-T/2

X(f)

1

T

2

T

AT

De forma compacta escribimos:

(

t

T

)

←→ AT sinc(fT ) (21)

62

3. Propiedades de la transformada de Fourier

Son extremadamente utiles ya que nos proporcionan una serie de herramientas que nos ayudaran

enormemente en el analisis frecuencial de los sistemas. Veremos un total de 11 propiedades, algunas

de las cuales ya nos han salido en transformada de Laplace. No obstante, en transformada de Fourier

tenemos alguna mas, lo que se traduce en mas posibilidades para el analisis.

1. Linealidad:

Partimos de

x1(t)←→ X1(f)

x2(t)←→ X2(f)

Entonces se cumple que

α1x1(t) + α2x2(t)←→ α1X1(f) + α2X2(f)

lo cual se comprueba facilmente a traves de la definicion de la transformada de Fourier y viene

dado por el hecho de que la integral es una operacion lineal.

2. Simetrıas:

Vemos dos tipos de simetrıa basicos en la transformada de Fourier, que son:

a) La transformada de Fourier conserva la paridad, es decir

x(t) es par ←→ X(f) es par

x(t) es impar ←→ X(f) es impar

Comprobacion: en el caso de x(t) par, partimos de la definicion deX(f) =∫ +∞−∞ x(t)e−j2πftdt

y calculamos X(−f) teniendo en cuenta que se cumple x(t) = x(−t),

X(−f) =

∫ +∞

−∞x(t)e−j2π(−f)tdt =

∫ +∞

−∞x(−t)e−j2πf(−t)dt =

t′ = −t

dt′ = −dt

=

= −

∫ −∞

+∞x(t′)e−j2πft′dt′ = X(f)

b) Ademas, se cumple tambien

x(t) es real ←→ X(f) es hermıtica

x(t) es imaginaria ←→ X(f) es antihermıtica

Aclaracion:

X(f) es hermıtica si se cumple X(f) = X∗(−f), es decir, que tiene parte real par y parte

imaginaria impar. Tambien podemos decir que tiene modulo par, |X(f)| = |X(−f)|, y fase

impar, ϕX(f) = −ϕX(−f).

X(f) es antihermıtica si se cumple X(f) = −X∗(−f), es decir, que tiene parte real impar

y parte imaginaria par. Alternativamente, podemos decir que el modulo |X(f)| es par,

|X(f)| = |X(−f)|, y la fase cumple ϕX(f) = −ϕX(−f) + π.

63

Estas dos son las simetrıas basicas que existen, pero tambien las podemos combinar, por ejemplo:

a) x(t) es real y par −→ X(f) es real y par

Comprobacion: Por ser x(t) par, podemos afirmar que X(f) = X(−f). Por ser x(t) real,

podemos afirmar que X(f) = X∗(−f). Juntando ambas, tenemos que X(f) debe ser par en

parte real e impar en parte imgainaria y ademas debe ser par (tanto en parte real como en

parte imaginaria). La unica opcion para cumplir ambas condiciones es que ImX(f) = 0

y por lo tanto debe ser una senal real (y par, por supuesto).

b) x(t) es real e impar −→ X(f) es imaginario puro e impar

3. Retardo:

Partimos de la relacion x(t)←→ X(f) y aplicamos un retardo t0 a la senal temporal. Entonces

obtenemos la siguiente relacion:

x(t− t0)←→ e−j2πft0X(f) (22)

Comprobacion:

Fx(t− t0) =

∫ +∞

−∞x(t− t0)e

−j2πftdt =

t′ = t− t0dt′ = dt

=

∫ +∞

−∞x(t′)e−j2πf(t′+t0)dt′

= e−j2πft0

∫ +∞

−∞x(t′)e−j2πft′dt′ = e−j2πft0X(f)

Por lo tanto, un retardo conserva el modulo de la senal pero anade una fase linial en f de valor

−2πt0f .

4. Cambio de escala:

Partimos de la relacion x(t) ←→ X(f) y aplicamos un escalado por a a la senal temporal.

Entonces obtenemos la siguiente relacion:

x(at)←→1

|a|X

(

f

a

)

(23)

Comprobacion: directamente a traves de la definicion como en el caso del retardo.

Con este resultado se extiende la observacion que hemos hecho para el pulso rectangular a

cualquier senal, es decir, un estrechamiento en tiempo supone un ensanchamiento en frecuencia

y viceversa.

5. Teorema de convolucion:

Es muy util (como ya hemos visto en Laplace) y nos dice

y(t) = x(t) ∗ h(t)←→ Y (f) = X(f) ·H(f), (24)

o sea, la convolucion de dos senales en el dominio temporal se traduce en el producto de ambas

senales en el dominio transformado. Notese que resulta mucho mas facil hacer un producto que

una convolucion.

64

Comprobacion:

Teniendo en cuenta que x(t) =∫ +∞−∞ X(f)ej2πftdf

y(t) = T [x(t)] = T

[∫ +∞

−∞X(f)ej2πftdf

]

=

(

si el sistema

es lineal

)

=

∫ +∞

−∞X(f)T

[

ej2πft]

df

=

(

la exponencial es

autofuncion del sistemal

)

=

∫ +∞

−∞X(f)H(f)ej2πftdf

Por otro lado, tenemos que

y(t) =

∫ +∞

−∞Y (f)ej2πftdf,

con lo que, identificando terminos en las dos expresiones anteriores, llegamos a la conclusion que

Y (f) = X(f)H(f).

6. Dualidad:

Partimos de la relacion x(t)←→ X(f) y nos preguntamos cual es la transformada de Fourier de

una senal que en tiempo tenga la forma de X(f). Llegamos entonces al siguiente resultado:

x(t)←→ X(f)

X(t)←→ x(−f)(25)

Es decir, si cogemos X(f) y la reinterpretamos como una senal temporal X(t), entonces su

transformada tiene la misma forma que x(t) pero girada, esto es, x(−f).

Comprobacion:

Hay que ver que transformar x(t) nos da la misma senal que antitransformar x(−f). Nos fijamos

en la forma de la senal, indpendientemente de si la variable es t o f . La primera transformacion

es inmediata, y cambiaremos la variable f por α para no confundirnos, esto es

Fx(t) =

∫ +∞

−∞x(t)e−j2πftdt −→ α = f −→ X(α) =

∫ +∞

−∞x(t)e−j2παtdt (26)

Ahora antitransformamos x(−f), cambiando t por α como antes, esto es

F−1x(−f) =

∫ +∞

−∞x(−f)ej2πftdf −→

∫ +∞

−∞x(−f)ej2πfαdf = f ′ = −f (27)

=

∫ +∞

−∞x(f ′)e−j2πf ′αdf ′ = X(α)

Vemos, pues, que ambas senales son identicas. Es muy importante, en este caso, no dar sentido

fısico a las variables f y t, solo sentido matematico como variables.

Ejemplo de aplicacion: calcular la transformada de Fourier de x(t) = sinc(Wt).

En este caso podemos usar dualidad ya que sabemos que la transformada de un pulso rectangular

es una sinc, o sea, Π(

tW

)

←→W sinc(fW ). Ası pues, tenemos

Π(

tW

)

←→W sinc(fW )

W sinc(tW )←→ Π(

−fW

) (28)

65

Aplicando la propiedad de linealidad y teniendo en cuenta que la funcion pulso es par, llegamos

finalmente a

sinc(tW )←→1

(

f

W

)

(29)

7. Desplazamiento frecuencial (modulacion):

Esta propiedad es la dual del desplazamiento en tiempo y nos dice

x(t) ←→ X(f) (30)

x(t)ej2πf0t ←→ X(f − f0) (31)

Comprobacion:

Fx(t)ej2πf0t =

∫ +∞

−∞x(t)ej2πf0te−j2πftdt =

∫ +∞

−∞x(t)e−j2π(f−f0)tdt = X(f − f0)

Ejemplo de aplicacion 1: Encontrar la transformada de cos (2πf0t) y de sin (2πf0t)

Sabiendo que la transformada de 1 es δ(f), entonces tenemos

cos (2πf0t) =1

2

(

ej2πf0t + e−j2πf0t)

−→1

2δ(f − f0) +

1

2δ(f + f0) (32)

De la misma manera,

sin (2πf0t) =1

2j

(

ej2πf0t − e−j2πf0t)

−→1

2jδ(f − f0)−

1

2jδ(f + f0) (33)

Ejemplo de aplicacion 2: Circuito modulador

x(t) X y(t) = x(t) cos(2πf0t)

cos(2πf0t)

La senal de salida en el dominio de la frecuencia es

F x(t) cos(2πf0t) = F

1

2x(t)ej2πf0t +

1

2x(t)ej2πf0t

=1

2X(f − f0) +

1

2X(f + f0) (34)

que graficamente corresponde a

f

X(f)

X

cos(2πf0t)

f

Y (f)

f0−f0

La modulacion de senales es lo que nos permite transmitir varias de ellas en un mismo tiempo si

estas se encuentran separadas en frecuencia. Por ejemplo, esto es lo que se hacıa en la television

analogica para transmitir la senal de audio y la de video simultaneamente.

66

8. Integracion:

De manera semejante a la transformada de Laplace tenemos:

x(t) ←→ X(f) (35)∫ t

−∞x(τ)dτ ←→

X(f)

j2πf+

1

2X(0)δ(f)

Comprobacion:

Basta con ver que∫ t−∞ x(τ)dτ = x(t) ∗ u(t). Conociendo la transformada del escalon U(f) =

1j2πf + 1

2δ(f), podemos hacer la transformada que buscamos como el producto X(f)U(f).

9. Derivacion:

Tambien de manera parecida a la transformada de Laplace tenemos:

x(t) ←→ X(f) (36)

d

dtx(t) ←→ X(f)j2πf

Comprobacion:

d

dtx(t) =

d

dt

[∫ +∞

−∞X(f)ej2πftdf

]

=

∫ +∞

−∞

d

dt

X(f)ej2πft

df (37)

=

∫ +∞

−∞X(f) j2πf ej2πftdf = F−1 X(f) j2πf

10. Transformada del producto (enventanamiento):

Esta propiedad es la recıproca de la de convolucion y nos dice:

x(t) ←→ X(f) (38)

y(t) ←→ Y (f)

x(t) · y(t) ←→ X(f) ∗ Y (f)

Comprobacion:

Fx(t) y(t) =

∫ +∞

−∞x(t)y(t)e−j2πftdt =

∫ +∞

−∞x(t)

[∫ +∞

−∞Y (υ)ej2πυtdυ

]

e−j2πftdt (39)

=

∫ +∞

−∞Y (υ)

[∫ +∞

−∞x(t)e−j2πftej2πυtdt

]

=

∫ +∞

−∞Y (υ)

[∫ +∞

−∞x(t)e−j2π(f−υ)tdt

]

=

∫ +∞

−∞Y (υ)X(f − υ)dυ = Y (f) ∗X(f)

67

11. Teorema de Parseval:

El teorema de Parseval nos dice que si tenemos las siguientes relaciones,

x(t) ←→ X(f) (40)

y(t) ←→ Y (f)

entonces se cumple que

∫ +∞

−∞x(t) y∗(t) dt =

∫ +∞

−∞X(f)Y ∗(f) df (41)

No obstante, habitualmente se emplea el teorema de Parseval para una misma senal. Es decir,

si x(t) = y(t), entonces se cumple que

∫ +∞

−∞|x(t)|2dt =

∫ +∞

−∞|X(f)|2df, (42)

que es equivalente a decir que la energıa de la senal es la misma en ambos dominios. Esto nos

sera especialmente util para tratar la energıa y la potencia de las senales en el siguiente tema.

Comprobacion:

∫ +∞

−∞x(t)y∗(t)dt =

∫ +∞

−∞

[∫ +∞

−∞X(f)ej2πftdf

]

y∗(t)dt (43)

=

∫ +∞

−∞X(f)

[∫ +∞

−∞y∗(t)ej2πftdt

]

df

Hacemos primero la integral temporal, que es

∫ +∞

−∞y∗(t)ej2πftdt =

∫ +∞

−∞

(

y(t)e−j2πft)∗

dt =

[∫ +∞

−∞y(t)e−j2πftdt

]∗

= Y ∗(f) (44)

y sustituyendo en (43) llegamos al resultado anunciado.

Nota: en (44) no estamos haciendo Fy∗(t). Se puede ver que Fy∗(t) = Y ∗(−f) (para

deducir este ultimo caso seguirıamos la misma argumentacion pero, ademas, haciendo el cambio

de variables f ′ = −f).

68

4. Limitacion en frecuencia (fenomeno de Gibbs) y limitacion en

tiempo (enventanado)

En esta parte del tema vemos que sucede cuando se limita el ancho de banda de la senal y que su-

cede cuando se limita la duracion temporal de la senal.

Aclaracion sobre ancho de banda: Para una senal en banda base, es decir, que no ha sido modu-

lada (trasladada en frecuencia), consideraremos Bx = fx,max−0 = fx,max, o sea, la maxima frecuencia

positiva. En cambio, si una senal en banda base se traslada en frecuencia, entonces consideramos

By = fy,max+ − fy,min+ , o sea, la diferencia entre las frecuencias maxima y mınima (positivas). Por

ejemplo:

f

X(f)

X

cos(2πf0t)

f

Y (f)

f0−f0Bx

By

4.1. Limitacion en frecuencia - fenomeno de Gibbs

La limitacion en banda de una senal se aprecia sobretodo en las discontinuidades que esta pueda

presentar y por este motivo ahora nos centramos en el estudio de esta situacion. Supongamos que

tenemos una senal x(t) con una sola discontinuidad (de salto finito) en t0. Dicha senal se puede

descomponer en

x(t) = xc(t) +[

x(t+0 )− x(t−0 )]

u(t− t0) (45)

donde xc(t) es una senal continua a la cual anadimos un escalon que empieza en t0 y con amplitud

correspondiente al salto de la discontinuidad. Graficamente estamos haciendo:

tt0tt0

tt0

+=

xc(t)x(t) [x(t+0 )− x(t−0 )]u(t− t0)

∆x∆x

A partir de ahora, consideraremos por simplicidad y sin perdida de generalidad que t0 = 0. Por lo

tanto tenemos:

x(t) = xc(t) + ∆xu(t)←→ X(f) = Xc(f) + ∆xF u(t) (46)

Ahora limitamos la senal en banda, es decir, eliminamos las componentes frecuenciales |f | > B

usando un filtro paso-bajo ideal, es decir:

69

x(t) y(t) = x(t) ∗ h(t)

f

H(f)

B−B

X(f)

f

|X(f)||Y (f)|

fB−B

Y (f) = X(f) ·Π(

f2B

)

Ası pues, obtenemos

Y (f) = X(f) ·Π

(

f

2B

)

= Xc(f) · Π

(

f

2B

)

+∆xFu(t)Π

(

f

2B

)

(47)

Para simplificar el analisis, supondremos que Xc(f) tiene un ancho de banda inferior a B, con lo que

nos queda

Y (f) = X(f) · Π

(

f

2B

)

= Xc(f) + ∆xFu(t)Π

(

f

2B

)

(48)

y desde el punto de vista temporal tenemos

y(t) = F−1Y (f) = xc(t) + ∆x [u(t) ∗ 2Bsinc(2Bt)] (49)

Aquı vemos que la senal x(t), una vez limitada en frecuencia, se puede descomponer en xc(t) y yd(t) =

∆x [u(t) ∗ 2Bsinc(2Bt)], es decir, la parte correspondiente al pulso que ha generado la discontinuidad

pero limitado en banda. Veamos lo que vale esta parte de la senal:

yd(t) = ∆x [u(t) ∗ 2Bsinc(2Bt)] = ∆x

∫ +∞

−∞2Bsinc(2Bτ)u(t − τ)dτ = ∆x

∫ t

−∞2Bsinc(2Bτ)dτ (50)

Dicha integral se puede calcular numericamente, obteniendo el siguiente resultado:

∆x 2Bsinc(2Bτ)

∆x 2B

τ

1

2B

2

2B

∫t

−∞()dτ

t

t

1

2B

2

2B

t

∆x

2

∆x

yd(t)

En otras palabras, la transicion abrupta del pulso se suaviza y aparece un rizado adicional. A conti-

nuacion resumimos las conclusiones que se extraen de este estudio.

70

Efectos de la limitacion en banda cuando la senal presenta discontinuidades finitas.

Fenomeno de Gibbs.

1. Aparece un rizado alrededor de la discontinuidad que se suaviza a medida que nos alejamos

de esta. Los maximos y mınimos se alternan en los multiplos de 1/2B, encontrado el maximo

absoluto en 1/2B y el mınimo absoluto en −1/2B.

2. El flanco de subida se suaviza, siendo el tiempo de subida ts ≈12B .

3. En el punto de discontinuidad se observa el valor medio del salto, es decir, yd(0) = ∆x/2.

4. Si aumentamos el ancho de banda B observamos:

a) La amplitud maxima y mınima del rizado no cambian, aunque se den mas cerca de la

discontinuidad.

b) Solo en el caso lımite con ancho de banda infinito (no se da en la practica) la sinc degenerarıa

en una delta y no habrıa distorsion de la senal.

Ya por ultimo, comentar que si la limitacion en frecuencia se hiciera con un filtro de forma triangular

como el de la figura, un analisis parecido nos llevarıa a las siguientes conclusiones:

1. El rizado desaparece.

2. El valor en el punto de la discontinuidad se mantiene a yd(0) = ∆x/2.

3. El tiempo de subida aumenta a ts ≈1B .

f

H(f)

B−B

1

2B

2

2B

t

∆x

2

∆x

yd(t)

4.2. Limitacion en tiempo - enventanado

Ahora nos encontramos ante la situacion dual a la anterior. Supondremos que tenemos una senal

x(t) y la limitamos en tiempo, es decir, cogemos los valores correspondientes a |t| ≤ T/2. Notese

que en la practica siempre existira algun tipo de enventanado. Entonces, a partir de la senal x(t)

expresaremos la senal enventanada en tiempo como:

xT (t) = x(t) · Π

(

t

T

)

(51)

71

Desde el punto de vista frecuencial, esto se traduce en:

XT (f) = FxT (t) = X(f) ∗ T sinc(Tf) (52)

Vemos entonces que el enventanado provoca una distorsion de la senal original, que sera tanto menor

como mayor sea T ya que la sinc tiende entonces a convertirse en una delta. Para ver los efectos de

la limitacion en tiempo, apliquemos el resultado anterior a senales de tipo coseno. Empecemos con

x(t) = A0 cos (2πf0t) por su sencillez en el dominio frecuencial: se trata de dos deltas, una a f0 y otra

a −f0. Su version enventanada es

XT (f) = A0

[

1

2δ(f − f0) +

1

2δ(f + f0)

]

∗ T sinc(fT ) =A0T

2sinc (T (f − f0)) +

A0T

2sinc (T (f + f0))

(53)

es decir, dos sincs centradas a f0 y −f0.

Consideremos ahora dos cosenos distintos, es decir, x(t) = A0 cos (2πf0t) +A1 cos (2πf1t). Esta senal

enventanada y vista desde el dominio frecuencial es

XT (f) =A0T

2sinc (T (f − f0)) +

A1T

2sinc (T (f − f1)) +

A0T

2sinc (T (f + f0)) +

A1T

2sinc (T (f + f1))

(54)

Graficamente tenemos:

f

f0−f0−f1 f1

A0T

2

A1T

2

f2−f2

Notese que se han dibujado las 4 sincs sin sumar y que el resultado final serıa la suma de todo. No

obstante, esta representacion nos es util para extraer las siguientes conclusiones:

1. Aparece un lobulo principal y una serie de lobulos secundarios relacionados con cada una de las

deltas, o sea, cada frecuencia singular. Esto es ası para la ventana rectangular y tambien para

otras alternativas, aunque la forma sera distinta.

2. El ancho del lobulo principal determinara la resolucion del sistema, es decir, cual es la capacidad

de distinguir el coseno a f0 del que esta a f1. Notese que, dado un ancho de lobulo principal,

existe una separacion mınima de las frecuencias a partir de la cual es imposible distinguir los

dos tonos ya que veremos un solo pico.

3. El nivel de los lobulos secundarios determinara como el contenido a una frecuencia enmascara

el contenido a otras frecuencias. Por ejemplo, si hubiera un coseno con amplitud mucho menor

que A1 en la frecuencia f2 (ver figura), se verıa enmascarado por el lobulo secundario del coseno

a f1.

72

Alternativamente, tambien podemos hacer uso de los resultados obtenidos en la parte de limitacion

en banda (se trata de la situacion dual). En otras palabras, si quisieramos sintetizar una senal en el

dominio frecuencial con discontinuidades y buscaramos hacerlo a traves de un sistema con respuesta

impulsional finita en el tiempo, entonces lo dicho anteriormente valdrıa aquı tambien. Por ejemplo,

supongamos que queremos sintetizar un pulso rectangular en frecuencia y tuvieramos dos opciones:

ventana rectangular o triangular en tiempo (la primera tiene el lobulo principal mas estrecho pero un

nivel de lobulos secundarios mayor). Entonces, con ventana rectangular generarıamos una respuesta

con transiciones mas rapidas pero con rizado. En cambio, con la venta triangular eliminarıamos el

rizado pero las transiciones serıan mas lentas.

Nota: En funcion de la aplicacion nos interesara una u otra ventana ya que siempre hay un com-

promiso en sus parametros. Notese que si mantenemos la energıa de la ventana a nivel temporal,

definida como∫ +∞−∞ |x(t)|

2dt, esta debe ser la misma en el dominio frecuencial por Parseval y por lo

tanto, si bajamos los lobulos secundarios (les quitamos energıa) es logico que aumente el grosor del

lobulo principal.

Finalmente, la siguiente tabla contiene los parametros de 3 ventanas de uso habitual:

Parametro Rectangular Triangular Hamming

Ancho lobulo principal 2/T 4/T 4/T

Ancho de banda a -3dB 0, 85/T 1, 25/T 1, 3/T

Relacion lobulo principal a secundarios 13dB 26dB 43dB

5. Transformada de Fourier de senales periodicas

Antes de estudiar la transformada de Fourier de una senal periodica, buscaremos un resultado

intermedio necesario para ello, la transformada de Fourier de un tren de deltas.

5.1. Transformada de un tren de deltas

Consideremos el siguiente tren de deltas en tiempo, Pδ(t) =∑+∞

n=−∞ δ(t− nT ).

t

Pδ(t)

T 2T 3T−3T −2T −T

Dado que Pδ(t) se puede expresar como Pδ(t) = lımN→+∞∑+N

n=−N δ(t−nT ), nos concentramos primero

en calcular la transformada del tren de deltas “finito”.

73

F

+N∑

n=−N

δ(t− nT )

=+N∑

n=−N

e−j2πfnT =e−j2πfT (N+1) − e−j2πfT (−N)

e−j2πfT − 1(55)

=e−j2πf T

2

[

e−j2πfT (N+ 1

2) − e−j2πfT (−N− 1

2)]

e−j2πf T2

[

e−j2πfT 1

2 − e+j2πfT ( 12)] =

sin(

2πfT [N + 12 ])

sin (πfT )

Nota: La suma de la serie geometrica que hemos hecho resulta de

N∑

n=−N

rn =

2N∑

n=0

rn−N = r−N2N∑

n=0

rn = r−N 1− r2N+1

1− r=

rN+1 − r−N

r − 1(56)

Veamos ahora como es la funcion que hemos obtenido. En concreto, nos damos cuenta de que:

Los zeros en el denominador deben cumplir πfT = nπ y por lo tanto, se encuentran a multiples

de 1/T , es decir, para f = n/T con n ∈ Z.

Los zeros en el numerador deben cumplir 2πfT[

N + 12

]

= kπ y por lo tanto, se encuentran para

f = kT (2N+1) con k ∈ Z.

Ademas, vemos que cuando hay un cero en el denominador, el numerador tambien vale cero. Si

resolvemos esta indeterminacion, por ejemplo usando la regla de Hopital, vemos que el valor en f = n/T

es

F

+N∑

n=−N

δ(t− nT )

f=n/T

=2πT

[

N + 12

]

cos(

2πfT[

N + 12

])

πT cos (πfT )

f=n/T

=2πT

[

N + 12

]

πT= 2N + 1

(57)

Dibujemos la funcion (cogemos T = 1 y N = 9):

−1.5 −1 −0.5 0 0.5 1 1.5−5

0

5

10

15

20

¿Que sucede cuando N −→ ∞? De entrada, vemos que los maximos de la funcion crecen hacia

infinito y que el rizado a su alrededor se compacta (notese que los “ceros” se encuentran a multiplos

74

de 1/(2N + 1)). Ası pues, llegamos a un tren de deltas en frecuencia que estan separadas 1/T . No

obstante, para poder caracterizar bien las deltas nos falta un detalle, que es saber cuanto vale su

integral. Cojamos pues (55) e integremos en un periodo,

∫ 1/2T

−1/2T

sin(

2πfT [N + 12 ])

sin (πfT )df =

∫ 1/2T

−1/2T

N∑

n=−N

e−j2πnTfdf =N∑

n=−N

−1

j2πnTe−j2πnTf

1/2T

−1/2T

(58)

=

N∑

n=−N

−1

j2πnT

[

e−jπn − ejπn]

=

N∑

n=−N

sin (πn)

πnT

=

N∑

n=−N

1

Tsinc(n) =

1

T

y vemos que el resultado es independiente de N .

Esto nos lleva al siguiente resultado final,

F

+∞∑

n=−∞

δ(t− nT )

= F

lımN→∞

N∑

n=−N

δ(t− nT )

=1

T

+∞∑

m=−∞

δ(

f −m

T

)

(59)

es decir, un tren de deltas separadas T en tiempo se corresponde a un tren de deltas separadas 1/T

en frecuencia.

Con este resultado ya podemos estudiar la transformada de Fourier de una senal periodica.

5.2. Transformada de una senal periodica

Consideremos una senal periodica cualquiera x(t) con periodo de repeticion T como la de la figura:

tT

x(t)

xb(t)

Vemos que x(t) se puede interpretar como la repeticion de una senal basica xb(t), la cual tiene duracion

T , o sea, el periodo de repeticion. Matematicamente:

x(t) =+∞∑

n=−∞

xb(t−nT ) =+∞∑

n=−∞

xb(t)∗ δ(t−nT ) =

(

prop. distrib.

convolucion

)

= xb(t)∗+∞∑

n=−∞

δ(t−nT ) (60)

Pasando al dominio transformado obtenemos

X(f) = Xb(f)1

T

+∞∑

m=−∞

δ(

f −m

T

)

=1

T

+∞∑

m=−∞

Xb

(m

T

)

δ(

f −m

T

)

(61)

75

donde Xb(f) = Fxb(t).

Aunque nos resultara mucha mas util esta transformacion y es la que emplearemos habitualmente,

tambien es cierto que podrıamos haber hecho la transformacion como

X(f) =+∞∑

n=−∞

Xb(f)e−j2πfnT (62)

Volviendo al primer caso, observamos que:

1. La transformada de Fourier de una senal periodica tiene la forma de un tren de deltas.

2. Depende esencialmente de la transformada de la senal basica Xb(f) y del periodo T .

Ejemplo: calcular la transformada de Fourier de x(t) =∑+∞

n=−∞Π(

t−nTT/2

)

.

En primer lugar nos dibujamos la senal: Luego representamos x(t) a partir de la senal basica, que

tT

x(t)xb(t)

T/2

en este caso es xb(t) = Π(

tT/2

)

, obteniendo x(t) = Π(

tT/2

)

∗∑+∞

n=−∞ δ(t−nT ). Finalmente, pasamos

al dominio transformado:

X(f) =T

2sinc(f

T

2)1

T

+∞∑

m=−∞

δ(

f −m

T

)

(63)

Vemos que nos queda una sinc con ceros a multiples de 2/T multiplicando al tren de deltas, es decir:

f

X(f)

2/T 4/T

Fijemonos que, en este caso en particular, las deltas situadas a las multiplos pares de 1/T desaparecen

ya que son anuladas por la ceros de la sinc. Si hicieramos el pulso cuadrado mas estrecho, por ejemplo

de duracion T/4, entonces la sinc se ensancharıa (el primer cero estarıa en 4/T ) y el lobulo principal

pasarıa de contener 3 deltas a 7, ası como cada uno de los lobulos secundarios pasarıan de contener 1

delta a 3.

76

5.3. Series de Fourier

La series de Fourier nos permiten aproximar senales periodicas en el dominio del tiempo como

combinacion lineal de exponenciales complejas o, alternativamente, de senos y cosenos. Los coeficien-

tes que acompanan a estas funciones “base” son los denominados coeficientes de Fourier y para que

una senal se pueda aproximar con series de Fourier se deben cumplir una serie de condiciones. En

particular, son condiciones suficientes pero no necesarias para que exista serie de Fourier las mismas

que aplican para la transformada de Fourier sobre la senal basica xb(t) y que ya hemos visto.

A continuacion se obtiene la serie de Fourier de una senal periodica como antitransformada de X(f).

Esto es:

F−1 X(f) = F−1

1

T

+∞∑

m=−∞

Xb

(m

T

)

δ(

f −m

T

)

=+∞∑

n=−∞

Xb

(

nT

)

Tej2πt

nT =

+∞∑

n=−∞

cnej2πt n

T (64)

donde identificamos cn =Xb( n

T )T con el n-esimo coeficiente de Fourier. Como vemos, hemos consegui-

do representar la senal x(t) como suma o serie de exponenciales complejas ej2πtnT en el tiempo, de

frecuencia fn = nT , y ponderadas por los coeficientes de Fourier. Normalmente llamamos frecuencia

fundamental f0 = 1/T y armonicos a las otras frecuencias fn = nf0. Resumiendo, la serie de Fourier

nos permite aproximar la senal periodica x(t) segun:

x(t) =+∞∑

n=−∞

cnej2πt n

T (65)

Si desarrollamos un poco vemos que los coeficientes de Fourier se calculan:

cn =Xb

(

nT

)

T=

Xb(f)

T

f=mT

=1

T

∫ +∞

−∞xb(t)e

−j2πftdt

f=mT

=1

T

<T>x(t)e−j2π n

Ttdt (66)

Cabe destacar que solo hace falta integrar la senal en un periodo cualquiera y por eso escribimos

< T > (no hace falta que sea de −T/2 a T/2). El motivo es que dada la periodicidad de la senal xb(t)

y de e−j2πnf0t, la integral es la misma empecemos donde empecemos siempre y cuando abarquemos

un periodo entero. En otras palabras, si a ∈ [−T/2, T/2], entonces:

cn =1

T

∫ a+T

ax(t)e−j2π n

Ttdt (67)

Comprobacion:

∫ a+T

ax(t)e−j2π n

Ttdt =

∫ T/2

ax(t)e−j2π n

Ttdt+

∫ a+T

T/2x(t)e−j2π n

Ttdt =

t′ = t− T

dt = dt′

(68)

=

∫ T/2

ax(t)e−j2π n

Ttdt+

∫ a

−T/2x(t′ + T )e−j2π n

T(t′+T )dt′

Ahora, dada la periodicidad tanto de x(t) como de e−j2π nTt, es decir, x(t) = x(t ± kT ) y e−j2π n

Tt =

e−j2π nT(t±kT ), obtenemos

∫ a+T

ax(t)e−j2π n

Ttdt =

∫ T/2

ax(t)e−j2π n

Ttdt+

∫ a

−T/2x(t′)e−j2π n

T(t′)dt′ =

∫ T/2

−T/2x(t)e−j2π n

Ttdt (69)

77

Series de Fourier de senales reales

Las series de Fourier fueron originalmente concebidas para representar senales periodicas reales

como suma de senales senoidales. Aquı hemos llegado a la serie de Fourier a traves de la transformada

y hemos visto que los coeficientes se pueden hallar como cn =Xb( n

T )T = Xb(f)

T

f=mT

. Por lo tanto, se

deben cumplir las mismas propiedades que hemos visto para la transformada de Fourier y en particular,

si xb(t) es real, entonces debe existir simetrıa hermıtica tanto en Xb(f) como en los coeficientes. Esto

es, si definimos cn = an−jbn2 , entonces c−n = an+jbn

2 . Apliquemos este resultado a la serie de Fourier:

+∞∑

n=−∞

cnej2πf0nt = c0 +

+∞∑

n=1

cnej2πf0nt + c−ne

−j2πf0nt (70)

= c0 +

+∞∑

n=1

an − jbn2

(cos (2πf0nt) + j sin (2πf0nt))

+an + jbn

2(cos (2πf0nt)− j sin (2πf0nt))

Teniendo en cuenta que c0 = c−0 (tomando lımites en Xb(f) para f → 0+ y f → 0−, respectivamente)

vemos que necesariamente b0 = 0. Si continuamos operando llegamos a:

x(t) =a02

+

+∞∑

n=1

an cos (2πf0nt) + bn sin (2πf0nt) (71)

con a0 =2T

∫ a+Ta x(t)dt, an = 2

T

∫ a+Ta x(t) cos (2πf0nt)dt y bn = 2

T

∫ a+Ta x(t) sin (2πf0nt)dt.

Comprobacion:

cn =1

T

∫ a+T

ax(t)e−j2π n

Ttdt =

1

T

∫ a+T

ax(t) (cos (2πf0nt)− j sin (2πf0nt)) dt

=1

T

∫ a+T

ax(t) cos (2πf0nt)dt− j

1

T

∫ a+T

ax(t) sin (2πf0nt)dt (72)

Finalmente, identificando (72) con la definicion cn = an2 − j bn

2 llegamos a los resultados deseados.

Ejemplo: encontrar la serie de Fourier de x(t) =∑+∞

n=−∞Π(

t−nTT/2

)

.

En el apartado anterior hemos encontrado la transformada de Fourier de x(t), que era:

X(f) =T

2sinc

(

fT

2

)

1

T

+∞∑

m=−∞

δ(

f −m

T

)

=

+∞∑

m=−∞

1

2sinc

(m

2

)

δ(

f −m

T

)

(73)

Antitransformando obtenemos la serie de Fourier, que es:

x(t) = F−1X(f) =

+∞∑

n=−∞

1

2sinc

(n

2

)

ej2πtnT (74)

78

Alternativamente, dado que cn = 12sinc(

n2 ) y teniendo en cuenta que cn = an−jbn

2 , podemos identificar

an = sinc(n2 ) y bn = 0. Notese que debido a que la senal x(t) es real y par, X(f) es puramente real

(la sinc) y por lo tanto los coeficientes tambien son reales. Esto nos permite escribir la senal tambien

como:

x(t) =1

2+

+∞∑

n=1

sinc(n

2

)

cos (2πf0nt) (75)

Observaciones:

1. El termino a0 nos dice cual es la componente de continua de la senal, es decir, su media. En el

ejemplo de la senal cuadrada con amplitud 1 y ciclo de trabajo del 50%, el termino a0 vale 1/2.

Comprobamos, pues, que se corresponde con la media de la senal.

2. Las series de Fourier nos pueden ser utiles a la hora de calcular sumatorios. Si en el caso anterior

cogemos t = 0, vemos que+∞∑

n=1

sinc(n

2

)

= x(0)−1

2=

1

2(76)

Evidentemente, esto nos servira basicamente para series cuyos elementos tengan la forma de una

transformada conocida. Por ejemplo, si hubiesemos querido calcular∑+∞

n=1 sinc(n2 ) de entrada,

el hecho de que la sinc sea la transformada de un pulso nos habrıa dado la pista para abordar el

sumatorio a traves de la serie de Fourier.

Notese que esto es el equivalente de

x(0) = F−1X(f)∣

t=0=

∫ +∞

−∞X(f)ej2πftdf

t=0

=

∫ +∞

−∞X(f)df (77)

para senales no periodicas.

6. Muestreo

Entendemos por muestreo el hecho de coger una senal continua en el tiempo y quedarnos unica-

mente con los valores de la senal a tiempos multiples de T . Es decir:

t

x(t)

T−T 2T

El proceso de muestreo esta ıntimamente relacionado con lo que habitualmente entendemos por digita-

lizar una senal, que consiste en: i) hacer discreto en tiempo (muestrear) y ii) hacer discreto en amplitud

(cuantificar). Aquı analizaremos que sucede unicamente por el hecho de muestrear una senal x(t) e

intentarla regenerar luego a partir de la senal discretizada en tiempo xd(t). De entrada, la intuicion

nos dice que si muestreamos suficientemente rapido (T suficientemente pequeno) podremos recuperar

x(t) a partid de xd(t). Veamos, pues, que hay de verdad en esta afirmacion.

79

6.1. Espectro de una senal muestreada. Criterio de Nyquist.

Consideremos el siguiente esquema de muestreo ideal con tren de deltas:

X

t

x(t)

T−T 2Tt

T−T 2T

tT−T 2T

∑+∞

n=−∞δ(t− nT )

xd(t)

A nivel temporal tenemos:

xd(t) = x(t)+∞∑

n=−∞

δ(t− nT ) =+∞∑

n=−∞

x(nT )δ(t− nT ) (78)

Esto se traduce al dominio frecuencial como:

Xd(f) = X(f) ∗1

T

+∞∑

m=−∞

δ(

f −m

T

)

=1

T

+∞∑

m=−∞

X(

f −m

T

)

(79)

y por lo tanto se trata de una senal periodica en frecuencia. Si asumimos que x(t) tiene un ancho de

banda limitado a W , la representacion grafica de Xd(f) es:

W−W

1

T−

1

T−

1

2T

1

2T

Xd(f)

f

1

TX(f)

Observando la figura vemos que, para que las replicas de X(f) no se solapen se debe cumplir W < 12T .

Teniendo en cuenta que la frecuencia a la que se ha muestreado la senal es fm = 1T , reescribimos la

condicion anterior como

fm > 2W (80)

tambien conocida como criterio de Nyquist. En otras palabras, para evitar el efecto aliasing (el solapa-

miento o interferencia entre replicas), es necesario muestrear al doble del ancho de banda de la senal.

80

Equivalentemente, definimos la frecuencia de Nyquist fN , que es funcion de fm, como el maximo ancho

de banda que puede tener la senal para que no sufra aliasing una vez muestreada. En otras palabras,

forzando al maximo (80), tenemos

fm = 2fN −→ fN =fm2

(81)

6.2. Recuperacion de x(t) a partir de xd(t). Interpolacion.

En caso de que no haya efecto aliasing, esta claro que limitando el espectro deXd(f) en [−1/2T, 1/2T ]

y escalando por T recuperamos el espectro de la senal original. Esta idea es la que usamos para re-

construirla. En concreto, vemos que:

X(f) = Xd(f)T Π

(

f

1/T

)

(82)

Esto se corresponde con el siguiente sistema cuando H(f) = T Π(

f1/T

)

:

f

H(f)

Xd(f) X(f) = Xd(f)H(f)

x(t) = xd(t) ∗ h(t)xd(t)−

1

2T

1

2T

T

Antitransformando la relacion anterior obtenemos:

F−1Xd(f)T Π

(

f

1/T

)

= xd(t) ∗ T1

Tsinc

(

t

T

)

= xd(t) ∗ sinc

(

t

T

)

(83)

donde hemos usado F−1H(f) = h(t) = sinc(

tT

)

. Desarrollando un poco mas obtenemos:

x(t) =

[

+∞∑

n=−∞

x(nT )δ(t− nT )

]

∗ sinc

(

t

T

)

=

+∞∑

n=−∞

x(nT ) sinc

(

t− nT

T

)

(84)

Esta es la formula de interpolacion con la sinc como funcion de interpolacion. Notese que los valores

de x(t) en los instantes t = nT son iguales que los de xd(t) en t = nT , lo cual es correcto. Veamoslo

en la siguiente figura:

81

t

x(t)

x(T ) x(2T )

Si nos fijamos, por ejemplo, en t = T , vemos que la sinc centrada allı, es decir x(T ) sinc(

t−TT

)

toma

el valor deseado x(T ) mientras que el resto de funciones sinc se anulan en ese punto. Esto mismo

sucede para cualquier otro punto t = nT . Ademas, en los valores de t intermedios, la suma de sincs

nos devolverıa la senal original (en trazo discontinuo en la figura).

No obstante, la funcion de interpolacion ideal (la sinc) no se podra implementar a la practica ya

que se trata de un sistema no causal. En todo caso, habrıa que introducirle un retraso y truncarla

para que h(t) = 0 para t < 0. Otra opcion es usar funciones de interpolacion mas sencillas, como por

ejemplo:

Interpolacion de orden cero: h(t) = Π(

t−T/2T

)

.

Con esta funcion tendremos x(t) ≈∑

n x(nT )Π(

t−T/2−nTT

)

, es decir, mantenemos el valor de

una muestra hasta que llegue la siguiente. La recuperacion de la senal no es muy buena pero es

sencilla.

t

x(t)

x(T ) x(2T )

Interpolacion de primer orden: h(t) = ∆(

tT

)

.

Con esta funcion tendremos x(t) ≈∑

n x(nT )∆(

t−nTT

)

, es decir, entre dos muestras consecutivas

aproximamos la funcion por una recta. Resulta tambien simple de implementar (con un retraso

para que sea causal) y funciona mejor que la anterior.

82

t

x(t)

x(T ) x(2T )

6.3. Implementacion practica

Finalmente, cabe destacar que en la practica se procura evitar el efecto del aliasing a toda costa.

Es por ello que en el caso del muestro, si la senal de entrada x(t) no cumple el criterio de Nyquist, se

coloca un filtro (llamado antialiasing) que limite el ancho de banda de la senal a fm/2. Es preferible

distorsionar la senal quitandole les componentes frecuenciales mas altas que acarrear luego con el

aliasing. Ası pues, el diagrama de bloques de un sistema de muestreo debe ser:

Filtro antialiasing (ancho de banda W)

Muestreo Cuantificación n bitsfm > 2W

Conversor A/D

x(t)

Si queremos recuperar la senal continua a partir de informacion digitalizada, usaremos un bloque

conversor digital a analogico. No obstante, la senal de salida de este bloque (suma de deltas) con-

tendra las replicas no deseadas en frecuencia, por lo que colocaremos, tal y como hemos visto, un filtro

interpolador o reconstructor.

Conversor D/A Filtro interpolador

Ejemplo: importancia de evitar el aliasing.

Consideremos la senal x(t) = cos (2πf0t). Sabemos que si la muestreamos con fm > 2f0 no va-

mos a tener problemas. En cambio, supongamos que la muestreamos a una frecuencia menor, es decir,

f0 > fm/2. Si no colocamos el filtro anti-alisaing, la senal muestreada en frecuencia sera Xd(f) =1T

∑+∞m=−∞X

(

f − mT

)

, que graficamente corresponde a:

83

Xd(f)

f

1

TX(f)

fm−fm −

fm2

fm2

réplicas

H(f)

Si ahora pretendemos recuperar la senal original con el filtro interpolador ideal (sombreado en la fi-

gura), vemos que en realidad estamos recuperando un coseno a frecuencia menor que la original (la

simetrica de f0 respecto a fm/2).

Esto es precisamente lo que esta sucediendo cuando en television vemos las ruedas de un formula

1 girando al reves, tambien llamado efecto estroboscopico. Supongamos que tenemos un cırculo como

el de la figura girando a velocidad constante con periodo T0. Tambien tenemos una lampara estro-

boscopica que ilumina el cırculo durante un breve instante de tiempo (se ve el cırculo quieto) cada Tm

segundos. Segun Nyquist, la frecuencia de muestreo de este sistema, que es 1/Tm, debe ser mayor que

dos veces la frecuencia de rotacion 1/T0 para capturar el movimiento correctamente, o sea, Tm < T0/2.

¿Que sucede si fijamos Tm = 3T0

4 ? Veamoslo en la figura:

T0

Tm

t = 0 t = Tm

t = 2Tm t = 3Tm

Nos parecerıa que gira a la izquierda con un periodo T0 = Tm/4.

84

Tema 5: Correlacion y Espectro de Senales

Deterministas

Antoni Morell y Rosana Rodrıguez

13 de mayo de 2013

1. Energıa y potencia

De electronica sabemos que la potencia instantanea disipada en una resistencia de valor R es

PR(t) = |v(t)|2R , donde v(t) indica la caıda de tension en sus bornes. A partir de ahora asumiremos una

resistencia de valor R = 1Ω y calcularemos la potencia instantanea de una senal cualquiera x(t) como

Pi(t) = |x(t)|2 (1)

En caso de que la senal x(t) corresponda a una tension y la resistencia no sea 1Ω, habra que dividir

por el valor que toque para encontrar la potencia tal y como la entendemos en electronica.

Definiremos la energıa de la senal como la integral (suma) de la potencia instantanea para todo

instante de tiempo, es decir

Ex =

∫ +∞

−∞|x(t)|2dt (2)

y la potencia media de la senal como el promedio temporal de Pi(t) o, lo que es lo mismo, como la

energıa de x(t) por unidad de tiempo calculada segun

Px = lımT→∞

1

T

∫ +T/2

−T/2|x(t)|2dt (3)

Clasificacion de las senales en terminos energeticos

En funcion de los valores que tomen tanto Ex como Px, la senal x(t) sera:

1. Senal de energıa finita: 0 < Ex < +∞.

2. Senal de potencia media finita: 0 < Px < +∞.

3. Senal que no es ni de energıa finita ni de potencia finita.

Los tipos 1 y 2 son excluyentes, es decir, si una senal es de energıa finita no puede ser de potencia

media finita y viceversa. Como ejemplo del grupo 3, podemos considerar x(t) = t−α2 u(t − 1) con

0 < α < 1. En este caso, Ex → +∞ y Px = 0.

85

1.1. Senales de energıa finita

Son todas las senales finitas de duracion finita mas algunas senales de duracion infinita. Como ejem-

plo de este segundo caso tomemos x(t) = e−atu(t) con a > 0, cuya energıa vale Ex =∫ +∞−∞ |x(t)|2dt =∫ +∞

−∞ |e−atu(t)|2dt =∫ +∞

0 e−2atdt = 12a y es, por tanto, finita.

Aprovechemos ahora el teorema de Parseval, que nos iguala la energıa de una senal en el dominio

temporal con su energıa en el dominio frecuencial, para definir la densidad espectral de energıa de la

senal, Sxx(f), que nos indica cual es la distribucion de energıa de una senal a lo largo del eje frecuen-

cial. Las unidades de Sxx(f) seran, pues, en forma de energıa partido frecuencia, o sea, J/Hz. Del

teorema de Parseval vemos que

Ex =

∫ +∞

−∞|x(t)|2dt =

∫ +∞

−∞|X(f)|2df (4)

y por lo tanto |X(f)|2 marca la distribucion de energıa en frecuencia del mismo modo que |x(t)|2marca la distribucion de energıa en tiempo (equivalente a potencia instantanea si se considera una

duracion temporal infinitesimal δt entorno a t). Llegamos pues a:

Sxx(f) = |X(f)|2 (5)

Propiedades de Sxx(f) = |X(f)|2

Son las siguientes:

1. Se trata de una magnitud real, pues es modulo al cuadrado de X(f).

2. Es no negativa (tambien por ser modulo al cuadrado).

3. Si x(t) es real, entonces Sxx(f) es par. Esto es debido a las propiedades de simetrıa de la

transformada de Fourier que nos dicen que para x(t) real se cumple que X(f) = X∗(−f). Dado

que para un numero complejo a es cierto que |a| = |a∗|, resulta facil ver que |X(f)| = |X∗(−f)| =|X(−f)|.

Energıa en un intervalo frecuencial

Supongamos ahora que queremos medir la energıa contenida entre f1 y f2 con f2 > f1. Para

ello filtramos la senal con un filtro paso banda ideal h(t), obteniendo ası y(t) = x(t) ∗ h(t), y luego

medimos la energıa de y(t). Dado que en la practica nos encontramos con la senal x(t) y el sistema

(filtro) h(t) reales, ambos (X(f) y H(f)) tienen simetrıa hermıtica. Esta misma propiedad se cumple

tambien para la senal que queremos medir Y (f) = X(f) ·H(f) ya que sera tambien real en tiempo

(la convolucion de dos senales reales es real). Siguiendo este razonamiento llegamos a

Ex(f1, f2) = Ey =

∫ +∞

−∞|y(t)|2dt =

∫ +∞

−∞|Y (f)|2df =

∫ +∞

−∞|X(f)|2|H(f)|2df (6)

86

Graficamente tenemos:

f

|X(f)|2|H(f)|2

1

f1 f2−f2 −f1

Recordando que |X(f)|2 y |H(f)|2 son pares si provienen de senales reales en tiempo, obtenemos

finalmente

Ex(f1, f2) =

∫ −f1−f2

|X(f)|2df +

∫ f2

f1

|X(f)|2df = 2

∫ f2

f1

|X(f)|2df (7)

Si f2 − f1 = ∆f → 0, entonces Ey ≈ |X(f1)|22∆f , que es lo mismo que decir |X(f1)|2 =Ey

2∆f ,

corroborando de nuevo que |X(f)|2 es densidad espectral de energıa.

1.2. Senales de potencia media finita

Son senales de potencia media finita:

Las senales periodicas (siempre que sean cuadrado integrables en un periodo).

Algunas senales de duracion infinita, como por ejemplo el pulso o la rampa.

Las senales aleatorias, es decir, las correspondientes a procesos estocasticos.

En este tema trataremos solo los dos primeros casos, es decir, las senales periodicas y las no periodicas.

Empecemos por el primero.

Senales periodicas

En las senales periodicas, la potencia (Px = lımT→∞1T

∫ +T/2−T/2 |x(t)|2dt) se puede obtener de dos

maneras distintas:

1. Px = 1T0

∫<T0>

|x(t)|2dt, es decir, como la potencia en un periodo.

2. Px =∑+∞

n=−∞ |cn|2, es decir, como suma de los modulos al cuadrado de sus coeficientes de

Fourier.

Comprobacion de la primera aproximacion:

Definimos T = MT0 con M ∈ N+ e impar y calculamos la potencia a traves de la definicion:

Px = lımT→∞

1

T

∫ +T/2

−T/2|x(t)|2dt = lım

MT0→∞

1

MT0

∫ +M T0/2

−M T0/2|x(t)|2dt (8)

87

Fijemonos que la ultima integral calcula la potencia en M periodos (ver la figura) y por lo tanto,

valdra M veces la integral en un periodo.

t

T0

x(t)

MT0

Ası pues:

Px = lımMT0→∞

1

MT0

∫ +M T0/2

−M T0/2|x(t)|2dt = lım

MT0→∞

1

MT0M

∫ +T0/2

−T0/2|x(t)|2dt =

1

T0

∫ +T0/2

−T0/2|x(t)|2dt (9)

Comprobacion de la segunda aproximacion:

Partimos del resultado anterior y expresamos x(t) en serie de Fourier como x(t) =∑+∞

n=−∞ cnej2π n

T0t.

Desarrollando obtenemos:

Px =1

T0

∫ +T02

−T02

|x(t)|2dt =1

T0

∫ +T02

−T02

x(t)x∗(t)dt =1

T0

∫ +T02

−T02

[+∞∑

n=−∞cne

j2π nT0t

]x∗(t)dt (10)

=1

T0

+∞∑n=−∞

cn

∫ +T02

−T02

x∗(t)ej2π n

T0tdt =

1

T0

+∞∑n=−∞

cn

[∫ +T02

−T02

x(t)e−j2π n

T0tdt

]∗

Si recordamos la definicion del n-esimo coeficiente de Fourier, cn = 1T0

∫<T0>

x(t)e−j2π n

T0tdt, vemos que

la expresion entre corchetes es justamente cnT0. Ası pues:

Px =1

T0

+∞∑n=−∞

cn[c∗nT0] =+∞∑

n=−∞|cn|2 (11)

Densidad espectral de potencia de senales periodicas:

Definimos la densidad espectral de potencia Sxx(f) de x(t) como la distribucion de potencia de la

senal a lo largo del eje frecuencial, que debe cumplir, al igual que la densidad espectral de energıa para

senales de energıa finita, Px =∫ +∞−∞ Sxx(f)df . En el caso de x(t) periodica, ya sabemos del estudio

de la transformada de Fourier de una senal periodica que existen solo componentes frecuenciales a los

multiplos de 1/T0 y que el contenido frecuencial en cada una de las componentes viene determinado

unicamente por cn. Teniendo en cuenta lo dicho junto con (11), vemos que necesariamente:

Sxx(f) =

+∞∑m=−∞

|cm|2δ(f − m

T0

)(12)

88

Senales no periodicas

En senales no periodicas deberemos calcular la potencia usando la definicion. Por ejemplo, pa-

ra calcular la potencia de x(t) = u(t) haremos:

Px = lımT→∞

1

T

∫ +T2

−T2

u2(t) dt = lımT→∞

1

T

∫ +T2

01 dt = lım

T→∞

1

T

T

2=

1

2(13)

Densidad espectral de potencia de senales no periodicas:

¿Y si queremos calcular la potencia desde el dominio frecuencial? Definamos una version enventa-

nada de x(t) a la que llamaremos xT (t) segun:

xT (t) = x(t)Π

(t

T

)(14)

Podemos ver que xT (t) y x(t) coinciden cuando hacemos la ventana arbitrariamente grande (T → +∞).

Calculemos ahora Px usando esta definicion como:

Px = lımT→∞

1

T

∫ +T2

−T2

|x(t)|2 dt = lımT→∞

1

T

∫ +∞

−∞|xT (t)|2 dt (15)

Gracias a la senal enventanada hemos podido llevar los lımites de la integral a infinito, lo que nos

permite aplicar el teorema de Parseval tal y como hemos hecho para el caso de senales de energıa

finita. Entonces tenemos:

Px = lımT→∞

1

T

∫ +∞

−∞|xT (t)|2 dt = lım

T→∞

1

T

∫ +∞

−∞|XT (f)|2 df =

∫ +∞

−∞lımT→∞

|XT (f)|2T

df (16)

Llegamos, pues, a la conclusion que la densidad espectral de potencia para senales de potencia media

finita no periodicas se puede calcular como:

Sxx(f) = lımT→∞

|XT (f)|2T

(17)

Apliquemos este resultado al ejemplo anterior, x(t) = u(t). En este caso xT (t) = Π(t−T/4T/2

)y por lo

tanto XT (f) = −ej2πf T4 T2 sinc(T2 f). Calculemos su densidad espectral:

Sxx(f) = lımT→∞

|XT (f)|2T

= lımT→∞

1

T

T 2

4

sin2 π2Tf

π2 T 2

4 f2

= lımT→∞

1

T

sin2 π T2 f

π2f2(18)

Considerando el lımite vemos que

Sxx(f) =

0 f 6= 0

π2 T2

4f2

Tπ2f2= T

4 =∞ f = 0(19)

donde hemos aproximado el seno por su argumento para f = 0. Llegamos pues a Sxx(f) = Aδ(f),

pero nos falta determinar el valor de A. Como Px =∫ +∞−∞ Sxx(f) df = A y ya sabemos por otro lado

que Px = 12 , concluimos que

Sxx(f) =1

2δ(f) (20)

89

2. Correlacion y espectro de energıa

Hasta ahora hemos tratado la energıa y la potencia de las senales tanto desde el punto de vista

temporal como frecuencial. En los siguientes dos apartados nos interesara establecer una medida que

nos permita comparar dos senales x(t) e y(t) y veremos que cuando las dos senales a comparar son la

misma, existe una clara relacion entre la medida de similitud, a la que llamaremos correlacion, y los

resultados establecidos hasta el momento.

Empecemos por encontrar una medida de similitud. Aquı nos serviremos de la idea de distancia

de los espacios vectoriales euclıdeos, donde definimos la distancia entre dos vectores x e y como

d(x,y) = ||x − y||. Como menor sea d mas semejantes seran los vectores. Analogamente, pode-

mos definir la distancia (al cuadrado en este caso) entre dos funciones o senales x(t) e y(t) como

d2(x, y) = ||x − y||2 =∫ +∞−∞ |x(t) − y(t)|2dt. Y si aun queremos afinar mas, podemos comprar las

senales para cualquier retraso relativo entre ellas τ , es decir

d2 (x(t+ τ), y(t)) =

∫ +∞

−∞|x(t+ τ)− y(t)|2dt =

∫ +∞

−∞(x(t+ τ)− y(t)) (x(t+ τ)− y(t))∗ dt (21)

=

∫ +∞

−∞|x(t+ τ)|2dt+

∫ +∞

−∞|y(t)|2dt

−∫ +∞

−∞x(t+ τ)y∗(t)dt−

∫ +∞

−∞x∗(t+ τ)y(t)dt

= Ex + Ey −Rxy(τ)−R∗xy(τ) = Ex + Ey − 2ReRxy(τ)

donde

Rxy(τ) =

∫ +∞

−∞x(t+ τ)y∗(t)dt (22)

se define como la correlacion o correlacion cruzada entre x(t) e y(t). Aquı vemos que si nuestro ob-

jetivo es medir cuanto se parecen dos senales, la distancia entre ellas no es del todo adecuada ya que

contiene terminos que no nos aportan informacion como son Ex y Ey. Es por este motivo que de ahora

en adelante usaremos como medida de similitud Rxy(t).

Vemos que la definicion de Rxy(τ) nos recuerda a la integral de convolucion. De hecho, podemos

expresar Rxy(τ) como

Rxy(τ) =

∫ +∞

−∞x(t+ τ)y∗(t)dt =

t′ = t+ τ

=

∫ +∞

−∞x(t′)y∗(t′ − τ)dt′ (23)

=

∫ +∞

−∞x(t′)y∗(−(τ − t′))dt′ = x(τ) ∗ y∗(−τ)

Propiedades de Rxy(τ)

Son las siguientes:

1. |Rxy(τ)|2 ≤ ExEy

90

Comprobacion: aplicacion directa de la desigualdad de Schwarz

(|∫ +∞−∞ u(t)v∗(t)dt|2 ≤

∫ +∞−∞ |u(t)|2

∫ +∞−∞ |v(t)dt|2):

|Rxy(τ)|2 =

∣∣∣∣ ∫ +∞

−∞x(t+ τ)y∗(t)dt

∣∣∣∣2 ≤ ∫ +∞

−∞|x(t+ τ)|2

∫ +∞

−∞|y(t)dt|2 = ExEy (24)

(Nota: la igualdad se darıa si u(t) = αv(t)).

2. Rxy(τ) = R∗yx(−τ)

Comprobacion: R∗yx(−τ) =(∫ +∞−∞ y(t− τ)x∗(t)dt

)∗=t = t′ + τ

=∫ +∞−∞ y∗(t′)x(t′ + τ)dt′

3. FRxy(τ) = Fx(τ) ∗ y∗(−τ) = X(f) · Y ∗(f) = Sxy(f), que se conoce como la densidad

espectral (de energıa) cruzada entre x e y.

De especial interes es el caso x(t) = y(t). Entonces la correlacion cruzada se convierte en

Rxx(τ) =

∫ +∞

−∞x(t+ τ)x∗(t)dt (25)

y se conoce como funcion de autocorrelacion de la senal x(t). En este caso, medimos cuanto se parece

la senal x(t) a una replica suya desplazada τ , o sea, x(t + τ). Mediante la transformada de Fourier

encontramos

FRxx(τ) = Fx(τ) ∗ x∗(−τ) = X(f)X∗(f) = |X(f)|2 = Sxx(f), (26)

es decir, la densidad espectral de energıa de la senal como cabıa esperar.

Propiedades de Rxx(τ)

Son las siguientes:

1. Rxx(0) =∫ +∞−∞ Sxx(f)df = Ex

2. |Rxx(τ)|2 ≤ E2x

3. Rxx(τ) = R∗xx(−τ). Por lo tanto se trata de una funcion hermıtica. Si x(t) es real, Rxx(τ) =

x(τ) ∗ x∗(−τ) sera real y ademas par.

4. FRxx(τ) = Sxx(f) ≥ 0

Analicemos ahora el caso de una senal z(t) compuesta de otras dos, es decir, z(t) = x(t) + y(t), desde

el punto de vista de la funcion de autocorrelacion:

Rzz(τ) = z(τ) ∗ z∗(−τ) = [x(τ) + y(τ)] ∗ [x∗(−τ) + y∗(−τ)] (27)

= x(τ) ∗ x∗(−τ) + y(τ) ∗ y∗(−τ) + x(τ) ∗ y∗(−τ) + y(τ) ∗ x∗(−τ)

= Rxx(τ) +Ryy(τ) +Rxy(τ) +Ryx(τ)

91

Si tenemos en cuenta que Ryx(τ) = R∗xy(−τ) tambien podemos escribir

Rzz(τ) = Rxx(τ) +Ryy(τ) +Rxy(τ) +R∗xy(−τ) (28)

y la energıa de z(t) como

Ez = Rzz(0) = Rxx(0) +Ryy(0) +Rxy(0) +R∗xy(0) = Ex + Ey + 2ReRxy(0) (29)

Son de especial interes los siguientes casos:

Si ReRxy(0) = 0 decimos que las senales son incoherentes y se cumple Ez = Ex + Ey.

Si Rxy(0) = 0 decimos que las senales son ortogonales (su producto escalar∫ +∞−∞ x(t)y∗(t)dt se

anula).

Si Rxy(τ) = 0 para todo τ , entonces las senales estan incorreladas y Rzz(τ) = Rxx(τ) +Ryy(τ).

Correlacion y espectro de energıa a traves de sistemas LTI

Para terminar la parte correspondiente a senales de energıa finita, nos preguntamos que sucede con

las correlaciones de las senales de entrada x(t) y salida y(t) a un sistema LTI descrito por su respuesta

impulsional h(t).

y(t)x(t) h(t)

En este caso tenemos:

1. Rxy(τ) = x(τ) ∗ y∗(−τ) = x(τ) ∗ (x∗(−τ) ∗ h∗(−τ)) = Rxx(τ) ∗ h∗(−τ)

2. Ryx(τ) = y(τ) ∗ x∗(−τ) = (x(τ) ∗ h(τ)) ∗ x∗(−τ) = Rxx(τ) ∗ h(τ)

3. Ryy(τ) = y(τ) ∗ y∗(−τ) = (x(τ) ∗ h(τ)) ∗ (x∗(−τ) ∗ h∗(−τ)) = Rxx(τ) ∗ h(τ) ∗ h∗(−τ) = Rxx(τ) ∗Rhh(τ)

Desde el punto de vista frecuencial esto se traduce en (aplicacion directa de la transformada de Fourier):

1. Sxy(f) = Sxx(f)H∗(f)

2. Syx(f) = Sxx(f)H(f)

3. Syy(f) = Sxx(f)H(f)H∗(f) = Sxx(τ)|H(f)|2

92

3. Correlacion y espectro de potencia

Para el caso de senales de potencia finita, calcularemos la correlacion siguiendo la logica que

hemos usado para calcular la potencia. Es decir, si decıamos que Px = lımT→∞1T

∫ +T2

−T2

|x(t)|2dt, ahora

la autocorrelacion de senales de potencia finita vendra dada por:

Rxx(τ) = lımT→∞

1

T

∫ +T2

−T2

x(t+ τ)x∗(t)dt (30)

donde comprobamos facilmente que Rxx(0) = Px. Ademas, la correlacion cruzada se calculara como:

Rxy(τ) = lımT→∞

1

T

∫ +T2

−T2

x(t+ τ)y∗(t)dt (31)

Propiedades de Rxx(τ)

Son las mismas (cambiando energıa por potencia) que las de las senales de energıa finita, es decir:

1. Rxx(0) = Px

2. |Rxx(τ)|2 ≤ |Rxx(0)|2

3. Rxx(τ) = R∗xx(−τ)

Propiedades de Rxy(τ)

Ası mismo, las propiedades de Rxy(τ) tambien se repiten y son:

1. |Rxx(τ)|2 ≤ PxPy

2. Rxy(τ) = R∗yx(−τ)

Densidad espectral de potencia

Tambien igual que antes, la densidad espectral de potencia (cruzada o no) se calcula como la trans-

formada de Fourier de la autocorrelacion o la correlacion cruzada segun sea el caso, es decir:

FRxx(τ) = Sxx(f) = lımT→∞

|XT (f)|2T

(32)

FRxy(τ) = Sxy(f) = lımT→∞

XT (f)Y ∗T (f)

T(33)

Nota: aunque llamemos igual a la densidad espectral de energıa y a la de potencia como Sxx(f), hay

que ser conscientes que son distintas y que nos aportan informacion semejante pero no igual.

93

Comprobacion: Empezaremos desarrollando por Sxx(f) = lımT→∞|XT (f)|2

T para ver que se corres-

ponde con FRxx(τ). Esto es:

Sxx(f) = lımT→∞

|XT (f)|2T

= lımT→∞

1

TXT (f)X∗T (f) (34)

= lımT→∞

1

T

[∫ +∞

−∞xT (t)e−j2πftdt

] [∫ +∞

−∞xT (t′)e−j2πft

′dt′]∗

= lımT→∞

1

T

[∫ +T2

−T2

x(t)e−j2πftdt

][∫ +T2

−T2

x∗(t′)e+j2πft′dt′

]donde hemos expresado XT (f) como FxT (t). Ahora juntamos las integrales y hacemos el cambio

de variable t = τ + t′ (aquı t′ es solo un parametro que no interviene en la integral respecto t), con lo

que dt = dτ :

Sxx(f) = lımT→∞

1

T

∫ +T2

−T2

∫ +T2

−T2

x(t)x∗(t′)e−j2πf(t−t′)dt dt′ (35)

= lımT→∞

1

T

∫ +T2

−T2

∫ +T2−t′

−T2−t′

x(τ + t′)x∗(t′)e−j2πfτdτ dt′

Ahora aprovechamos el hecho que t′ es finito (t′ ∈ [−T/2, T/2]) para aplicar el lımite T → ∞ en la

primera integral (la de dentro), llegando a

Sxx(f) = lımT→∞

1

T

∫ +T2

−T2

∫ +∞

−∞x(t′ + τ)x∗(t′)e−j2πfτdτ dt′ (36)

Finalmente, invertimos el orden de integracion para llegar al resultado esperado, esto es:

Sxx(f) =

∫ +∞

−∞lımT→∞

1

T

∫ +T2

−T2

x(t′ + τ)x∗(t′)e−j2πfτdt′ dτ (37)

=

∫ +∞

−∞Rxx(τ)e−j2πfτdτ = FRxx(τ)

Ejemplo: Obtener Rxx(τ) y Sxx(f) para x(t) = u(t).

Aplicamos la definicion de Rxx(τ) para obtener

Rxx(τ) = lımT→∞

1

T

∫ +T2

−T2

u(t+ τ)u(t)dt = lımT→∞

1

T

∫ +T2

0u(t+ τ)dt (38)

Si τ > 0, u(t + τ) es un escalon que empieza en algun t negativo (t = −τ) y por lo tanto, Rxx(τ) se

reduce a:

Rxx(τ) = lımT→∞

1

T

∫ +T2

0dt = lım

T→∞

1

T

T

2=

1

2(39)

Finalmente, como Rxx(τ) debe ser siempre par para x(t) real, no hace falta estudiar el caso τ < 0 y

podemos afirmar que

Rxx(τ) =1

2−→ Sxx(f) = FRxx(τ) =

1

2δ(t) (40)

94

Densidad espectral a la salida de un sistema LTI

Al igual que en el caso de energıa finita se cumple que la densidad espectral de potencia Syy(f) a la

salida de un sistema LTI caracterizado por H(f) = Fh(t) vale

Syy(f) = Sxx(f)|H(f)|2 (41)

donde Sxx(f) es la densidad espectral de potencia de la senal x(t) a la entrada del sistema.

Correlacion en senales periodicas

En cuanto a autocorrelacion se refiere, vemos que si comparamos una senal periodica con ella misma

pero desplazada un numero entero de periodos como se ve en la figura, las senales a comparar son

identicas. Es lo mismo que sucede cuando no hay desplazamiento.

t

T0

x(t)

t

x(t)

Por lo tanto intuimos que la autocorrelacion de una senal periodica sera tambien periodica, es decir:

x(t) = x(t+ kT0) −→ Rxx(τ) = Rxx(τ + kT0), k ∈ Z (42)

Comprobacion:

Rxx(τ + kT0) = lımT→∞

1

T

∫ +T2

−T2

x(t+ τ + kT0)x∗(t)dt (43)

= lımT→∞

1

T

∫ +T2

−T2

x(t+ τ)x∗(t)dt = Rxx(τ)

Ademas, del mismo modo que para obtener la potencia de la senal, basta con hacer la integral en un

periodo (incluso sin necesidad que sea [−T0/2, T0/2], lo cual tambien es cierto para la potencia ya que

Rxx(0) = Px):

Rxx(τ) =1

T0

∫<T0>

x(t+ τ)x∗(t)dt (44)

95

Correlacion entre dos fasores

Estudiemos ahora la correlacion entre x(t) = a1ej2πf1t y y(t) = a2e

j2πf2t. Aplicando directamente la

definicion vemos que:

Rxy(τ) = lımT→∞

1

T

∫ +T2

−T2

a1ej2πf1(t+τ)a∗2e

−j2πf2tdt = a∗2a1ej2πf1τ lım

T→∞

1

T

∫ +T2

−T2

ej2π(f1−f2)tdt (45)

= a∗2a1ej2πf1τ lım

T→∞

1

T

ej2π(f1−f2)t

j2π(f1 − f2)

∣∣∣∣T/2−T/2

= a1a∗2ej2πf1τ lım

T→∞

1

T

sinπ(f1 − f2)T

π(f1 − f2)T

= a1a∗2ej2πf1τ lım

T→∞sinc ((f1 − f2)T )

Por lo tanto, cuando f1 6= f2 evaluaremos la sinc en valores muy grandes y el resultado sera 0. Solo

cuando f1 = f2 la sinc tomara valor 1. Por lo tanto, llegamos al siguiente resultado:

Rxy(τ) =

0 f1 6= f2

a1a∗2ej2πf1τ f1 = f2

(46)

Correlacion cruzada entre dos senales periodicas

El resultado anterior nos sirve para calcular Rxy(τ) con x(t) e y(t) periodicas si las desarrollamos en

series de Fourier. Esto es:

x(t) =∑m

cx,mej2πmf0,xt (47)

y(t) =∑n

cy,nej2πnf0,yt (48)

Calculemos, pues, la correlacion cruzada:

Rxy(τ) = lımT→∞

1

T

∫ +T2

−T2

[∑m

cx,mej2πmf0,x(t+τ)

]·[∑

n

c∗y,ne−j2πnf0,yt

]dt (49)

=∑m

∑n

cx,mc∗y,ne

j2πmf0,xτ lımT→∞

1

T

∫ +T2

−T2

ej2π(mf0,x−nf0,y)tdt

Vemos que cada elemento del sumatorio se corresponde con la correlacion de dos fasores, de la cual

ya tenemos el resultado en (46). Sabemos que solo cuando mf0,x = nf0,y el elemento en cuestion

contribuira al sumatorio. En caso contrario dicha contribucion sera 0. La cuestion ahora es: ¿con

que periodicidad los fasores de la senal x(t) van a coincidir con los de la senal y(t)? Miremos primero

un ejemplo. Supongamos f0,x = 3 y f0,y = 4 y dibujemos sus espectros (por comodidad, ya que un

fasor en tiempo queda representado en frecuencia por una delta cuya posicion nos indica la frecuencia).

96

f

X(f)

-18 -15 -12 -9 -6 -3 3 6 9 12 15 18

f

Y (f)

4 8 12 16-16 -12 -8 -4

12

Vemos que con una periodicidad de fr = 12, la posicion de las deltas coincide. Todo se reduce a

encontrar M y N tales que

f0,r = Nf0,x = Mf0,y, M,N ∈ N+ (50)

Si nos fijamos nos daremos cuenta que f0,r = mcm(f0,x, f0,y) y una vez encontrado el mınimo comun

multiple de ambas frecuencias fundamentales, determinar M y N ya es trivial segun (50).

Finalmente, eliminando los terminos que no contribuyen a la correlacion cruzada, esta no queda como:

Rxy(τ) =∑r

cx,Nr c∗y,Mr e

j2πrf0,rτ (51)

Como caso particular, vemos que la autocorrelacion de una senal periodica x(t) se puede calcular como

en (44) o bien segun:

Rxx(τ) =∑r

|cx,r|2ej2πrf0,xτ (52)

En cualquier caso, se trate de correlacion cruzada o autocorrelacion, queda claro que su transformada

de Fourier, es decir, la densidad espectral de potencia (cruzada o no) va tomar la forma de un tren de

deltas con los coeficientes correspondientes.

97