Upload
francisco-lugo
View
149
Download
1
Embed Size (px)
Citation preview
Ancho de banda Para otros usos de este término, véase Ancho de banda (informática).
Para señales analógicas, el ancho de banda es la longitud, medida en hercios (Hz), del rango de
frecuencias en el que se concentra la mayor parte de la potencia de la señal. Puede ser calculado a
partir de una señal temporal mediante el análisis de Fourier. También son llamadas frecuencias
efectivas las pertenecientes a este rango.
Figura 1.- El ancho de banda viene determinado por las frecuencias comprendidas entre f1 y f2.
Así, el ancho de banda de un filtro es la diferencia entre las frecuencias en las que su atenuación al
pasar a través de filtro se mantiene igual o inferior a 3 dB comparada con la frecuencia central de
pico (fc) en la Figura 1.
La frecuencia es la magnitud física que mide las veces por unidad de tiempo en que se repite un
ciclo de una señal periódica. Una señal periódica de una sola frecuencia tiene un ancho de banda
mínimo. En general, si la señal periódica tiene componentes en varias frecuencias, su ancho de
banda es mayor, y su variación temporal depende de sus componentes frecuenciales.
Normalmente las señales generadas en los sistemas electrónicos, ya sean datos informáticos, voz,
señales de televisión, etc., son señales que varían en el tiempo y no son periódicas, pero se pueden
caracterizar como la suma de muchas señales periódicas de diferentes frecuencias.
[editar]Uso común
Es común denominar ancho de banda digital no solo es digital si no tambien es un ancho de banda
estabilizadora que sirve para exigir informacion de un servidor a otro y y es la velocidad que tarda en
pedirla procesarla y analizarla ose es el tiempo que tarda entre una linea entre otra al pedir
informacion de una pc a un servidor a la cantidad de datos que se pueden transmitir en una unidad
de tiempo. Por ejemplo, una línea ADSL de 256 kbps (256 kbit/s) puede, teóricamente, enviar 256
000 bits (no bytes) por segundo. Esto es en realidad la tasa de transferencia máxima permitida por
el sistema, que depende del ancho de banda analógico, de la potencia de la señal, de la potencia de
ruido y de la codificación de canal.
Un gráfico de la magnitud de ganancia de banda de un filtro, ilustrando el concepto de un ancho de banda de -3
dB a una ganancia de 0,707. Los ejes de frecuencia en el diagrama pueden ser a escala linear o logaritmica.
Un ejemplo de banda estrecha es la realizada a través de una conexión telefónica, y un ejemplo
de banda ancha es la que se realiza por medio de una
conexión DSL, microondas, cablemódem o T1. Cada tipo de conexión tiene su propio ancho de
banda analógico y su tasa de transferencia máxima. El ancho de banda y la saturación redil son dos
factores que influyen directamente sobre la calidad de los enlaces.
El rango de frecuencia que deja a un canal pasar satisfactoriamente se expresa en Hz.
Bw=∆f=fcs (frecuencia de corte superior) – fci (frecuencia de corte inferior)
También suele usarse el término ancho de banda de un bus de ordenador para referirse a la
velocidad a la que se transfieren los datos por ese bus (véase Front-side bus), suele expresarse en
bytes por segundo (B/s), megabytes por segundo (MB/s) o gigabytes por segundo (GB/s).
Se calcula multiplicando la frecuencia de trabajo del bus, en ciclos por segundo por el número de
bytes que se transfieren en cada ciclo.
Por ejemplo, un bus que transmite 64 bits de datos a 266 MHz tendrá un ancho de banda de 2,1
GB/s.
Algunas veces se transmite más de un bit en cada ciclo de reloj, en este caso se multiplicará el
número de bits por la cantidad de transferencias que se realizan en cada ciclo (MT/s).
Comúnmente, el ancho de banda que no es otra cosa que un conjunto de frecuencias consecutivas,
es confundido al ser utilizado en líneas de transmisión digitales, donde es utilizado para indicar
régimen binario o caudal que es capaz de soportar la línea.
Velocidad binaria o velocidad de transmisión Velocidad de transmisión al número de dígitos binarios transmitidos en la unidad de tiempo, la
velocidad binaria de transmisión se mede en (bps),carece de sentidos por que la separación entre
caracteres puede ser variable: utilizar solamente la noción de velocidad de modulación.
Para un solo canal que transmite en modo serie la expresión
Vt= 1 / t x log2 n
Vtd= números de bits transmitidos/ tiempo empleado
Se llama velocidad real de transferencia de datos al promedio de bits por unidad de tiempo.
Et= Vrtd/ Vtd
Teorema de Shannon-Hartley
En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de
codificación para canales con ruido. Un caso muy frecuente es el de un canal de
comunicaciónanalógico continuo en el tiempo que presenta un ruido gausiano.
El teorema establece la capacidad del canal de Shannon, una cota superior que establece la
máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es, información)
sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a la
presencia de la interferencia del ruido.
En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en la
potencia de la señal y, además, que el proceso del ruido gausiano es caracterizado por una potencia
conocida o una densidad espectral de potencia.
La ley debe su nombre a Claude Shannon y Ralph Hartley.
Declaración del teorema
Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el
teorema de Shannon-Hartley indica que la capacidad del canal C es:1
donde:
es el ancho de banda del canal.
es la capacidad del canal (tasa de bits de información bit/s)
es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW,
etc.)
es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a la
señal útil.
[editar]Desarrollo histórico
A finales de los años 20, Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas
fundamentales relacionadas con la transmisión de la información, de manera particular, en el
contexto del telégrafo como sistema de comunicaciones. En aquellos años, estos conceptos
eran avances de gran alcance de carácter individual, pero no formaban parte del corpus de una
teoría exhaustiva.
Fue en los años 40, cuando Claude Shannon desarrolló el concepto de capacidad de un canal
basándose, en parte, en las ideas que ya habían propuesto Nyquist y Hartley y formulando,
después, una teoría completa sobre la información y la transmisión de esta, a través de
canales.
[editar]Tasa de Nyquist
En 1927, Nyquist determinó que el número de pulsos independientes que podían pasar a
través de un canal de telégrafo, por unidad de tiempo, estaba limitado a dos veces el ancho de
banda del canal.
donde es la frecuencia del pulso (en pulsos por segundo) y es el ancho de banda
(en hercios). La cantidad se llamó, más adelante, tasa de Nyquist, y transmitiendo a esta
tasa de pulsos límite de pulsos por segundo se le denominó señalización a la tasa de
Nyquist.
Nyquist publicó sus resultados en 1928 como parte de su artículo "Certain topics in Telegraph
Transmission Theory".
[editar]Ley de Hartley
Durante ese mismo año, Hartley formuló una manera de cuantificar la información y su tasa de
transmisión a través de un canal de comunicaciones. Este método, conocido más adelante
como ley de Hartley, se convirtió en un importante precursor para la sofisticada noción de
capacidad de un canal, formulada por Shannon.
Hartley indicó que el número máximo de pulsos distintos que se pueden transmitir y recibir, de
manera fiable, sobre un canal de comunicaciones está limitado por el rango dinámico de la
amplitud de la señal y de la precisión con la cuál el receptor puede distinguir distintos niveles
de amplitud.
De manera específica, si la amplitud de la señal transmitida se restringe al rango
de , y la precisión del receptor es +/- , entonces el
número máximos de pulsos distintos M está dado por:
Tomando la información para ser el logaritmo del número de los mensajes distintos que podrían
ser enviados, Hartley después construyó una medida de la información proporcional al ancho
de banda del canal y a la duración de su uso. A veces sólo se habla de dicha proporcionalidad
cuando se cita a la ley de Hartley.
Posteriormente, Hartley combinó la observación de Nyquist,2 y su propia cuantificación de la
calidad o ruido de un canal en términos del número de niveles de pulso que podían ser
distinguidos, de manera fiable y denotados por , para llegar a una medida cuantitativa de la
tasa de información que se puede obtener.
La ley de Hartley se explica, cuantitativamente, de manera usual, como la tasa de información
alcanzable de bits por segundo, :
Hartley no resolvió, de manera precisa cómo el parámetro debe depender de las
estadísticas de ruido del canal, o cómo la comunicación podía ser fiable incluso cuando los
pulsos individuales correspondientes a símbolos no se pudieran distinguir, de manera fiable, de
los niveles de ; con las estadísticas del ruido gaussiano.
Los diseñadores de sistemas tienen que elegir un valor muy conservador de para alcanzar
la mínima tasa de error.
El concepto de una capacidad libre de errores aguardó hasta que Claude Shannon investigó
sobre las observaciones de Hartley con respecto a la medida logarítmica de la información y las
observaciones de Nyquist sobre el efecto de las limitaciones del ancho de banda del canal.
El resultado de la tasa de Hartley se puede ver como la capacidad de un canal sin errores
de símbolos por segundo. Algunos autores se refieren a ello como capacidad. Pero ese
supuesto canal, libre de errores, es un canal ideal, y el resultado es, necesariamente, menor
que la capacidad de Shannon de un canal con ruido de ancho de banda , que es el resultado
Hartley-Shannon que se estimó más adelante.
[editar]Teorema de codificación de canales con ruido y capacidad
El desarrollo de la teoría de la información de Claude Shannon durante la Segunda Guerra
Mundial estimuló el siguiente gran paso para entender qué cantidad de información se podría
comunicar, sin errores y de manera fiable, a través de canales con ruido gausiano de fondo.
Fundamentado sobre las ideas de Hartley, el teorema de Shannon de la codificación de
canales con ruido (1948) describe la máxima eficiencia posible de los métodos de corrección
de errores versus los niveles de interferencia de ruido y corrupción de datos. La prueba del
teorema muestra que un código corrector de errores construido aleatoriamente es,
esencialmente, igual de bueno que el mejor código posible. El teorema se prueba con la
estadística de tales códigos aleatorios.
El teorema de Shannon demuestra cómo calcular la capacidad de un canal sobre una
descripción estadística del canal y establece que, dado un canal con ruido con capacidad e
información transmitida en una tasa , entonces si
existe una técnica de codificación que permite que la probabilidad de error en el receptor se
haga arbitrariamente pequeña. Esto significa que, teóricamente, es posible transmitir
información casi sin error hasta un límite cercano a bits por segundo.
El inverso también es importante. Si
la probabilidad del error en el receptor se incrementa sin límite mientras se aumente la tasa. De
esta manera no se puede transmitir ninguna información útil por encima de la capacidad del
canal. El teorema no trata la situación, poco frecuente, en que la tasa y la capacidad son
iguales.
[editar]Teorema de Shannon-Hartley
El teorema de Shannon-Hartley establece cuál es la capacidad del canal, para un canal con
ancho de banda finito y una señal continua que sufre un ruido gaussiano. Conecta el resultado
de Hartley con el teorema de Shannon de la capacidad del canal en una forma que es
equivalente a especificar la en la fórmula de Hartley de la tasa de información en términos
de la relación señal/ruido, pero alcanzando fiabilidad a través de la codificación correctora de
errores, más fiable, que los niveles de pulso distinguibles.
Si existiera una cosa tal como un canal analógico con ancho de banda infinito y sin ruido, uno
podría transmitir cantidades ilimitadas de datos sin error, sobre este, por cada unidad de
tiempo. Sin embargo, los canales de comunicación reales están sujetos a las limitaciones
impuestas por el ancho de banda finito y el ruido.
Entonces, ¿cómo el ancho de banda y el ruido afectan a la tasa en la que la información puede
ser transmitida sobre un canal analógico?
Aunque parezca sorprendente, las limitaciones del ancho de banda, por si solas, no imponen
restricciones sobre la tasa máxima de información. Esto es porque sigue siendo posible, para la
señal, tomar un número infinitamente grande de valores distintos de voltaje para cada pulso de
símbolo, siendo cada nivel levemente distinto del anterior que representa a un determinado
significado o secuencia de bits. Sin embargo, si combinamos ambos factores, es decir, tanto el
ruido como las limitaciones del ancho de banda, encontramos un límite a la cantidad de
información que se puede transferir por una señal de potencia limitada, aun cuando se utilizan
técnicas de codificación de niveles múltiples.
En el canal considerado por el teorema de Shannon-Hartley, el ruido y la señal se suman. Es
decir, el receptor mide una señal que sea igual a la suma de la señal que codifica la
información deseada y una variable aleatoria continua que represente el ruido. Esta suma crea
incertidumbre en cuanto al valor de la señal original.
Si el receptor tiene cierta información sobre el proceso aleatorio que genera el ruido, se puede,
en principio, recuperar la información de la señal original considerando todos los posibles
estados del proceso del ruido. En el caso del teorema de Shannon-Hartley, se asume que el
ruido es generado por un proceso gaussiano con una varianza conocida. Puesto que la
varianza del proceso gaussiano es equivalente a su potencia, normalmente se llama a esta
varianza la potencia de ruido.
Tal canal es llamado canal aditivo del ruido blanco gaussiano, porque el ruido gaussiano es
añadido a la señal; blanco significa igual cantidad de ruido en todas las frecuencias dentro del
ancho de banda del canal.3
[editar]Implicaciones del teorema
[editar]Comparación de la capacidad de Shannon con la ley de Hartley
Comparando la capacidad del canal con la tasa de información de la ley de Hartley, podemos
encontrar el número eficaz de los niveles distinguibles :
La raíz cuadrada convierte con eficacia el cociente de potencias de nuevo en un cociente de
voltaje, así que el número de niveles es aproximadamente proporcional al cociente entre el
valor de la raíz cuadrada media de la amplitud de la señal y la desviación estándar del ruido.
Esta semejanza entre la capacidad de Shannon y la ley de Hartley no se debe interpretar
como niveles de pulsos pueden enviarse literalmente sin ninguna confusión. Se necesitan
más niveles, para permitir codificación redundante y la corrección de errores, pero la tasa de
datos neta que puede acercarse con la codificación es equivalente a usar en la ley de
Hartley.
[editar]Formas alternativas
[editar]Caso dependiente de la frecuencia (ruido de color)
En la versión simple de arriba, la señal y el ruido están completamente incorreladas, y en ese
caso es la potencia total de la señal y del ruido recibidos juntos. Una generallización
de la ecuación antedicha para el caso donde el ruido adicional no es blanco (es decir, la
relación S/N no es constante con la frecuencia sobre el ancho de banda) como muchos canales
estrechos independientes y gaussianos en paralelo:
donde:
es la capacidad del canal en bits por segundo
es el ancho de banda del canal en Hz
es el espectro de potencia de la señal
es el espectro de potencia del ruido
es la frecuencia en Hz
Nota: el teorema se aplica solamente a los ruidos que son procesos gaussianos estacionarios.
La manera en que esta fórmula introduce el ruido dependiente de la frecuencia no sirve para
describir todos los procesos del ruido continuo en el tiempo. Por ejemplo, consideremos un
proceso del ruido que consista en sumar una onda aleatoria cuya amplitud sea 1 o -1 en
cualquier momento del tiempo, y un canal que añada dicha onda a la señal original. Los
componentes de la frecuencia de la onda son altamente dependientes. Aunque tal ruido puede
tener una alta potencia, es bastante fácil transmitir una señal continua con mucha menos
potencia que la necesaria si el ruido subyacente fuera una suma de los ruidos independientes
de cada banda de frecuencia.
[editar]Aproximaciones
Para las relaciones señal/ruido grandes o pequeños y constantes, la fórmula de la capacidad
puede ser aproximada:
Si , entonces
donde
De manera análoga, si , entonces
En esta baja aproximación de SNR (signal to noise ratio, relación señal a ruido), la capacidad
es independiente del ancho de banda si el ruido es blanco, la densidad espectral de dicho ruido
es vatios por hercio, (W/Hz). En este caso el total de la potencia del ruido es .
[editar]Ejemplos numéricos
Si el SNR es 20 dB, y el ancho de banda disponible es 4 kHz, apropiada para las
comunicaciones telefónicas,
entonces kbit/s. Obsérvese que el
valor es equivalente al SNR de 20 dB.
Si se requiere transmitir en 50 kbit/s, y el ancho de banda usado es 1 MHz, entonces la mínima
relación S/N requerida está dada
por de forma
que correspondiente a un SNR de -14.5 dB. Esto
demuestra que es posible transmitir con señales que son mucho más débiles que el nivel de
ruido de fondo como en las comunicaciones de espectro ensanchado.
Ruido blanco
Ejemplo de la forma de onda de un ruido blanco.
Densidad espectral de potencia (PSD) del ruido blanco estimada con el método de Welch. Eje de las ordenadas
(y): potencia/frecuencia (dB/Hz); eje de las abscisas (x): frecuencia (KHz).
El ruido blanco o sonido blanco es una señal aleatoria (proceso estocástico) que se caracteriza
por el hecho de que sus valores de señal en dos tiempos diferentes no
guardan correlación estadística. Como consecuencia de ello, su densidad espectral de
potencia (PSD, siglas en inglés de power spectral density) es una constante, es decir, su gráfica es
plana.1 Esto significa que la señal contiene todas lasfrecuencias y todas ellas muestran la misma
potencia. Igual fenómeno ocurre con la luz blanca, de allí la denominación.
Si la PSD no es plana, entonces se dice que el ruido está "coloreado" (correlacionado). Según la
forma que tenga la gráfica de la PSD del ruido, se definen diferentes colores.
Definición matemática
La autocorrelación de cualquier proceso estocástico blanco es una delta.
Densidad espectral de potencia del ruido blanco. La PSD de cualquier proceso estocástico blanco es una
constante. Eje de las ordenadas (y): densidad espectral de potencia (PSD) (W/Hz/muestra); eje de las abscisas
(x): frecuencia discreta normalizada (f = ω/2π).
El ruido blanco es un caso particular de proceso estocástico WSS en el cual las variables
aleatorias que lo forman no están correlacionadas. Es decir, si se tiene un proceso
estocástico WSS (lo supondremos de tiempo discreto y real, de manera equivalente
para procesos de tiempo continuo), debe ocurrir entonces que:
Si, en lugar de tener la distribución de probabilidad del proceso, lo que tenemos es una
realización temporal del mismo en forma de vector columna (lo más usual), entonces las
ecuaciones anteriores se expresarán normalmente en forma matricial
Como el proceso no está correlacionado, su función de autocorrelación es una delta y
su densidad espectral de potencia (PSD, Power Spectral Density) es una constante
Como la PSD es constante, la señal no está limitada en banda y su potencia es -teóricamente-
infinita. En la práctica, se considera que una señal es blanca si su PSD es constante en la
banda de frecuencia de interés en la aplicación. Por ejemplo, si se trata de una aplicación de
audio, el ruido será blanco si su espectro es plano entre 20 Hz y 20 KHz, que es la banda de
frecuencia que resulta audible para el oído humano.
En cualquier proceso estocástico existen siempre dos componentes:
una componente innovadora, que no se puede predecir mediante predicción lineal y que
representa la entropía, la incertidumbre, el caos, lo que no se puede predecir de ninguna
manera;
una componente redundante que es posible predecir y, por tanto, eliminar (en esto se basan
las técnicas de compresión sin pérdidas de la señal como, por ejemplo, ADPCM o, más
específicamente para señales de voz, la norma G.721).
La PSD es la transformada de Fourier de la función de autocorrelación y, como ésta es
una transformación matemática unívoca, se ve que la función de autocorrelación y la PSD
contienen básicamente la misma información acerca de una señal. Son dos formas distintas de
ver lo mismo: el grado de entropía de una señal. La entropía de una señal en este caso puede
verse como una medida de lo plano que es su espectro. De una señal cuyo espectro no sea
plano se dice que está "coloreada" (autocorrelacionada o que tiene redundancia).
El ruido blanco es un proceso completamente innovador, caótico, no tiene redundancia y, por
tanto, no puede comprimirse.
[editar]Análisis y síntesis de procesos estocásticos WSS coloreados
También se puede ver el ruido blanco como el residuo que queda después de extraer toda la
redundancia a un proceso estocástico WSS coloreado. De hecho, es posible demostrar que
todo proceso estocástico estacionario en sentido amplio (WSS, del inglés wide-sense
stationarity) se puede obtener filtrando ruido blanco con un filtro todo polos (modelo AR), con
un filtro todo ceros (modelo MA) o con un filtro de polos y ceros (modelo ARMA).
En el siguiente diagrama se filtra ruido blanco mediante el filtro lineal , obteniendo a la
salida el proceso coloreado (el filtro introduce correlación entre las muestras del
proceso )
Proceso estocástico WSS genérico obtenido filtrando ruido blanco con el filtro lineal H.
Haciendo predicción lineal sobre , se obtiene el filtro , que es el filtro inverso (filtro
de deconvolución) de y que permite, después de ajustar las medias de los procesos,
obtener de nuevo el proceso de ruido blanco original .
Recuperación del proceso de ruido blanco mediante el filtro blanqueador .
Estas técnicas tienen gran importancia en el procesamiento de la señal. En el filtrado
adaptativo se usan para estudiar la estabilidad de algoritmos adaptativos para filtros IIR.
En codificación de voz, el códec vocoder en ningún momento transmite las muestras de la
señal, sino un bit que decide si el fonema es sordo/sonoro y a continuación los parámetros del
modelo de predicción lineal para cada caso (filtro del diagrama). Con esta técnica se
consigue codificar la voz con tasas tan bajas como 2,4 kbps y con una calidad suficientemente
inteligible.
[editar]Aplicaciones
[editar]Procesamiento de señal
En general, el ruido blanco tiene muchas aplicaciones en procesado de señales:
Sirve para determinar la función de transferencia de cualquier sistema lineal e invariante con el
tiempo (LTI, Linear Time Invariant). Por ejemplo, en acústica arquitectónica la función de
transferencia se usa para medir el aislamiento acústico y la reverberación de la sala.
En síntesis de audio (música electrónica) se usa para sintetizar el sonido de instrumentos de
percusión, o los fonemas sordos: /s/, /t/, /f/, etc.
También se puede usar para mejorar las propiedades de convergencia de
ciertos algoritmos de filtrado adaptativo mediante la inyección de una pequeña señal de ruido
blanco en algún punto del sistema.
[editar]Generación de números aleatorios
El ruido blanco generado por ciertos procesos físicos naturales o artificiales se usa como base
para la generación de números aleatorios de calidad, puesto que es, como ya se ha dicho, una
fuente de entropía.
[editar]Uso en vehículos de emergencia
Algunos vehículos de emergencia lo usan debido a que es fácil distinguirlo del ruido de fondo y
no queda enmascarado por el eco, por lo que es más fácil su localización espacial.
[editar]Uso en los seres humanos
El ruido blanco puede usarse para desorientar a personas antes de un interrogatorio y como
técnica de privación sensorial.
Por otra parte, el ruido blanco de baja intensidad puede favorecer la relajación y
el sueño (véase insomnio). En tiendas especializadas pueden adquirirse discos compactos con
largas secuencias de ruido blanco, así como aparatos electromecánicos que hacen uso
del principio del ruido blanco para "enmascarar" los ruidos repentinos y molestos.
[editar]Referencias