102
Introducción al Audio Digital Introducción Física del Sonido Grabación Analógica/Digital Muestreo Análisis/Síntesis Procesamiento Digital de Señal MIDI Mensajes MIDI Periféricos MIDI Sincronización Almacenamiento Informática Lino García Morales Madrid. Noviembre, 2006

introducción al audio digital v2

Embed Size (px)

Citation preview

Page 1: introducción al audio digital v2

Introducción al Audio Digital

Introducción Física del Sonido Grabación Analógica/Digital Muestreo Análisis/Síntesis Procesamiento Digital de Señal MIDI Mensajes MIDI Periféricos MIDI Sincronización Almacenamiento Informática

Lino García Morales Madrid. Noviembre, 2006

Page 2: introducción al audio digital v2

2

Introducción

El término Audio Digital se refiere a la tecnología mediante la cual el sonido (la señal de “audio”) es almacenado en la memoria de un ordenador (procesador digital) como una secuencia de números (“dígitos”) en formato binario.

Procesos interconectados:

• El sonido acústico es convertido en una señal eléctrica equivalente – esta es la función de un micrófono.

• La señal eléctrica analógica es convertida en una secuencia de números (señal digital) – esta es la función de un componente llamado conversor analógico-digital.

• Estos números son almacenados en un disco duro u otro medio digital (CD, DAT, etc.).

• Los números almacenados pueden ser manipulados opcionalmente para alterar la señal bajo control del usuario – este proceso se conoce como procesado digital de la señal.

• La señal digital es reconvertida a una señal eléctrica (analógica) – esta es la función de un componente llamado conversor digital-analógico.

• Finalmente la señal eléctrica es reconvertida a un sonido acústico que podemos oír – esta es la función de un altavoz.

Tema

01

Page 3: introducción al audio digital v2

3

Sonido Acústico

Señal Eléctrica Analógica

Señal Digital

Procesado de Señal Digital

Señal Eléctrica Analógica

Sonido Acústico

Page 4: introducción al audio digital v2

4

Física del Sonido

¿Produce sonido la hoja de un árbol al caer si no hay nadie para escucharla? Quizá.

Técnicamente hablando, el movimiento de un medio tal como el aire es un prerequisito para la creación del sonido (a diferencia de lo que se ve en las películas; no existe sonido en el vacío del espacio). La hoja del árbol al caer mueve sin duda la masa de aire. El sonido es una vibración que se propaga a través del aire.

La emisión de alguna fuente de sonido (tal como la vibración de los músculos de las cuerdas vocales, una cuerda de un violín, la membrana de un tambor, el aire de una tuba o, por qué no, la hoja que cae) perturba las moléculas del aire, que en estado de reposo están distribuidas uniformemente; esto provoca la transferencia de diferencias de presión (rarefracción-baja presión y compresión-alta presión) en todas las direcciones. Estas ondas son análogas a las que se producen cuando se lanza una piedra a un estanque – la perturbación de la piedra provoca que el agua se agite en todas direcciones hasta que la amplitud (o altura) de las ondas es tan pequeña que deja de percibirse.

Por otra parte el sonido, al igual que la mayoría de las cosas que llamamos “realidad” es puramente perceptual – en otras palabras, no tenemos forma de saber si lo que escuchamos es precisamente lo mismo que escucha otra persona. Se puede describir técnicamente el proceso de generación física del sonido pero la otra parte de la ecuación es el receptor humano.

El proceso de percepción del sonido es uno de los testimonios fascinantes de las maravillas de la naturaleza: Primero, el oído exterior es puesto en movimiento físico por las ondas de aire que le llegan. En el oído interno, una serie de órganos muy pequeños convierten estas vibraciones en una diminuta señal eléctrica, la cual es transmitida al cerebro a través del nervio auditivo. El resultado final es la percepción del sonido.

Tema

02

Page 5: introducción al audio digital v2

5

La figura muestra un ejemplo de las tres partes que intervienen en el fenómeno sonoro: la fuente (que en este caso es el aparato fonatorio humano), el medio (aire) y el receptor (aparato perceptual auditivo).

Pulmones

Cuerdas Vocales

Movimiento del aireTímpano

Oído Interno

Nervio Auditivo

Cerebro

Page 6: introducción al audio digital v2

6

Amplitud

La amplitud representa la intensidad del sonido; el volumen es la interpretación de esta magnitud por el sistema perceptual auditivo. Como ayuda visual se puede representar el movimiento del aire provocado por la generación del sonido en términos de cuánto aire es movido (o sea, la amplitud de la onda sonora) en un período de tiempo dado. Este tipo de representación gráfica, donde se representa la amplitud en el eje vertical y el tiempo en el eje horizontal es muy utilizada por los programas de edición y grabación de audio digital. Véase el siguiente ejemplo:

La curva varía positivamente (por encima de la línea central) cuando el aire se mueve hacia adelante, y negativamente (por debajo de la línea central) cuando el aire se mueve hacia detrás – recuerde, la vibración de una fuente de sonido provoca un movimiento vibratorio continuo de bombeo (empuje-y-afloja) (que en términos técnicos se denomina compresión y rarefacción) del aire. Cuanto más aire se mueve mayor es la amplitud – el volumen del sonido.

Page 7: introducción al audio digital v2

7

El decibelio

La unidad de medida utilizada para describir la amplitud del sonido es el decibelio o su abreviatura dB. Este es un término relativo de medida y, como el oído humano es muy sensitivo a los cambios de amplitud del sonido (somos literalmente capaces de distinguir millones de variaciones), es también logarítmico, en lugar de lineal.

En otras palabras, un incremento de amplitud de 3 dB significa realmente un incremento de volumen 2 veces más fuerte; un incremento de 20 dB corresponde a una potencia del sonido 100 veces más fuerte.

Rango dinámico

La diferencia entre el sonido más fuerte y más débil que somos capaces de percibir en un momento dado se conoce como rango dinámico, y es un factor muy importante cuando se graba audio digital.

Por ejemplo, el rango dinámico de un concierto orquestal en directo está alrededor de 100 dB (o sea, los sonidos más fuertes producidos por una orquesta son miles de veces más fuerte que los sonidos más débiles).

Debido a las limitaciones físicas de los discos de vinilo, la reproducción del mismo concierto está limitada alrededor de los 70 dB (las cintas de audio son aún peores). Por otro lado, el CD consigue un rango dinámico de aproximadamente 96 dB – esta es una de las razones por la que el sonido resulta mucho más realista que sus contrapartes analógicos. El DVD Audio y SACD (Super Audio CD) alcanzan valores próximos a los 144 dB en una especie de “vuelta” al dominio analógico desde el digital (lo más parecido a la señal analógica “real”).

Trasientes

Los sonidos generalmente se representan como una función del tiempo. La escala de tiempo es más o menos dilatada en dependencia de las características que se deseen analizar. Típicamente se visualizan unos pocos segundos a partir de un instante dado (para apreciar la ubicación, envolventes, etc.) y cuando se desean ver detalles (periodicidad, etc.), es necesario disminuir la escala de tiempos al orden de los milisegundos.

Page 8: introducción al audio digital v2

8

La siguiente figura muestra apenas un compás de una sección rítmica

Los instrumentos percutidos tienden a producir cambios bruscos de energía del sonido (diferencias de amplitudes pronunciadas). Estos cambios bruscos se conocen como trasientes y, como los sistemas de grabación digital tienen mayor rango dinámico que los sistemas analógicos, generalmente realizan un trabajo mucho mejor al reproducir éste tipo de señales complejas.

Page 9: introducción al audio digital v2

9

Frecuencia

Otra variable importante que se muestra en estos gráficos de sonido es la frecuencia con la cual el aire es movido hacia delante y hacia detrás. Cada oscilación completa u onda (o sea, cada movimiento hacia delante – hacia detrás) tarda un cierto período de tiempo en ocurrir. La unidad de medición es el Hertz, o Hz en abreviatura. Un sonido de 1 Hz genera una oscilación completa por segundo. Esto realmente es demasiado bajo para lo que un ser humano comienza a percibir como sonido. El rango del oído humano (conocido como rango audible) generalmente se extiende desde 20 Hz hasta los 20,000 Hz (mil Hertz se conoce como un kiloHertz, o kHz en abreviatura). Esto no significa que no existan sonidos por debajo de los 20 Hz o por encima de los 20 kHz; otros animales pueden oír estas frecuencias subsónicas o supersónicas, aunque nosotros no. El rango audible va disminuyendo según avanza el proceso de envejecimiento, perdiéndose sobre todo la respuesta a las altas frecuencias (la mayoría de las personas con más de 40 años no pueden escuchar frecuencias superiores a los 15 kHz).

Nosotros percibimos las frecuencias altas (o sea, más ondas por segundo) con una altura alta o aguda; y por el contrario las frecuencias bajas (pocas ondas por segundo) son percibidas con una altura baja. Este es un sonido que incrementa en altura

Page 10: introducción al audio digital v2

10

Y este, un sonido que decrementa en altura:

Una cuerda de violín es más corta y más delgada que la cuerda de un chelo; lo que hace que la cuerda del violín vibre a una velocidad más alta y, en consecuencia, a una frecuencia mayor. Como resultado de estas características el violín crea sonidos con un tono más alto que los producidos por el chelo.

Ancho de banda

El rango de frecuencias que podemos oír en cualquier sonido dado es conocido como ancho de banda. Esto no se refiere a que un sonido tenga o no frecuencias por encima de 20 kHz o por debajo de 20 Hz, sino a que no podemos oírlas de ninguna manera. Si una grabación no contiene el ancho de banda audible completo de la interpretación original, simplemente no nos sonará muy realista; por ello la importancia que tiene para cualquier proceso de grabación el retener la mayoría, sino todo del ancho de banda original.

Page 11: introducción al audio digital v2

11

Timbre

Además de la descripción preliminar del sonido en términos de su amplitud y frecuencia, cualquier sonido real tiene una cualidad tonal característica, conocida como timbre. Esto se debe a que todos los sonidos que existen en la naturaleza consisten de una combinación de muchas frecuencias diferentes, conocidas como armónicos. La potencia de estos armónicos, así como la frecuencia real de cada uno, es lo que determina el timbre del sonido.

El timbre es reflejado en la forma de la onda (o sea, el gesto del movimiento del aire). De modo práctico digamos que el timbre es lo que permite diferenciar los sonidos emitidos por un violín y los de un saxofón tenor; aún cuando tengan la misma altura o frecuencia fundamental. Los sonidos dulces y suavizados tienden a tener formas de ondas muy pronunciadas. Para ilustrar esto veamos el aspecto de una onda producida por una flauta:

Por el contrario los sonidos ásperos y estridentes tienden a tener formas de ondas temblorosas y rizadas. Por ejemplo la forma de onda producida por un saxo:

Page 12: introducción al audio digital v2

12

Periodicidad

Observe, sin embargo, que ambos, la flauta y el saxo, muestran cierta regularidad en su forma de onda. Esta característica conocida como periodicidad, es compartida por todos los sonidos musicales, y es lo que permite identificar claramente la altura. Por el contrario, los sonidos que no tienen una altura fácilmente perceptible (o sea, sonidos no – musicales) no tienen formas de ondas regulares, se dice que son aperiódicos. Por ejemplo observe el aspecto de un sonido producido por un instrumento de percusión:

Page 13: introducción al audio digital v2

13

Envolvente

Es importante reconocer que la mayoría de los sonidos no permanecen estáticos mientras duran, de hecho son más interesante los que varían con el tiempo. En la mayoría de los sonidos naturales la complejidad tímbrica incrementa durante el período de ataque inicial, en comparación con el período sostenido posterior. Compare, por ejemplo, el ataque de una nota de un piano.

Con la progresión de la misma nota del piano un segundo más tarde

Page 14: introducción al audio digital v2

14

Retardo Ataque

Retención Caída

Sostenido Desvanecimiento

Se suele considerar como envolvente al cambio de volumen del sonido en relación con el tiempo. En realidad esta es una definición matemática simplificada si tenemos en cuenta que no sólo varía la amplitud del sonido durante su desarrollo. En la mayoría de los instrumentos tradicionales cada armónico evoluciona con una envolvente diferente denominada envolvente de filtro/tono o envolvente de modulador. Los sonidos naturales suelen tener envolventes complejas.

La envolvente de volumen suele ser sintetizada a partir de unos pocos parámetros con bastante naturalidad

El retardo es el tiempo de demora que transcurre antes de comenzar a evolucionar el sonido. El ataque determina la cantidad de tiempo que tarda el sonido en alcanzar su nivel máximo. Esta fase resulta de gran interés para determinar la cualidad de un sonido dado: los instrumentos de cuerda y de membrana (clarinete, etc.) tienen a menudo un ataque bastante prolongado a diferencia de los instrumentos percutidos que tienen un ataque rápido. La retención es el tiempo que permanece el sonido en máxima intensidad. El valor de caída determina el tiempo que tarda el sonido en disminuir su intensidad desde su máxima amplitud. Cuanto más pequeño sea el tiempo de caída, más se acorta el sonido, haciéndose cada vez más percutido. El tiempo de sostenido es donde realmente se manifiesta el carácter periódico de un sonido. Los instrumentos percutidos, por ejemplo, suelen tener un tiempo de sostenido o régimen permanente muy corto a diferencia de las notas tenidas de un violín. El tiempo de desvanecimiento, extinción o liberación determina cuanto tarda el sonido en desaparecer, una vez retirada la fuente de sonido (e.g., cuando levantamos los dedos de las teclas del piano).

Page 15: introducción al audio digital v2

15

Ruido

El ruido es un tipo muy especial de sonido que presenta armónicos con características de frecuencia y amplitud aleatoriamente distribuidas. El ruido es caótico y no presenta ningún carácter periódico. Por lo tanto, no tiene una altura o frecuencia determinada.

Relación Señal/Ruido

Dada la escasa probabilidad de conseguir un entorno de audio digital perfectamente silencioso, lo que verdaderamente preocupa no es si existe o no ruido (sabemos que existirá siempre) sino cuánto ¿Qué cantidad de ruido existe en relación con la señal de interés? Una de las medidas ampliamente utilizadas es la relación Señal/Ruido (S/N – Signal Noise Rate) que mide la relación de potencias entre ambas fuentes. Cuanto mayor sea la S/N, mejor será la calidad del sonido. La S/N se mide en decibelios. Para propósitos musicales el límite de aceptación de la S/N es de 65 dB; mientras que 70 dB se considera suficiente.

Distorsión

Se considera por distorsión los cambios que se producen entre los componentes armónicos de una señal al atravesar un medio (como puede ser el paso entre los convertidores A/D – D/A). La distorsión se mide en porcentaje. A diferencia de la S/N la magnitud de la distorsión es mejor mientras más pequeña sea. Una medida popular de la distorsión es la distorsión armónica total (THD). Se considera aceptable un valor de THD de 0.5 % y óptimos valores de THD inferiores a 0.1 %.

Page 16: introducción al audio digital v2

16

Grabación Analógica/Digital

El debate de “¿Cuál sonido es mejor: analógico o digital?”, tan intenso durante la década de los 80, no está agotado. Desde el punto de vista subjetivo poco o nada hay que decir; pero, al menos desde el punto de vista técnico, el audio digital es superior en cuanto que provee un ancho de banda extendido, un rango dinámico mucho más cercano a la realidad acústica, y un decremento significativo en cuanto a distorsión y ruido. Además, el audio digital provee al usuario de un control mucho más refinado del sonido (la mayoría de los editores de audio digital disponibles en el mercado permiten incluso la edición a nivel de muestra).

Desde el punto de vista estético es importante destacar que cualquier tipo de grabación de audio está relacionada necesariamente con algún grado de ilusión. Cuando escuchamos la grabación de una orquesta sinfónica, aunque sabemos que la orquesta efectivamente no está presente, si la grabación es lo suficientemente buena, podríamos sentir la sensación de tener los músicos interpretando en la propia habitación. La grabación digital permite hacer esta experiencia mucho más real.

Grabación Analógica

Hasta finales de los 80s, virtualmente toda la grabación de audio fue realizada con la denominada tecnología analógica (el término análogo significa simplemente “similar” o “como”). El proceso de grabación analógica requiere del uso de un micrófono (técnicamente conocido como transductor) para convertir las vibraciones del aire provocadas por la fuente de sonido en señales eléctricas analógicas equivalentes. Los cambios de la amplitud de la señal eléctrica varían en el tiempo siguiendo las vibraciones del aire original. Esta señal es amplificada, normalmente por la circuitería de una consola de mezcla (conocida como preamplificador) y encaminada a los procesadores de señal analógicos necesarios. Estos procesadores de señal manipulan la señal eléctrica en un número de formas interesantes. Por ejemplo, los ecualizadores cortan o realzan diferentes áreas de frecuencia, los compresores/limitadores/expansores alteran el rango dinámico, etc. Finalmente, la señal procesada normalmente es enviada a la cabeza de grabación de un grabador analógico multipista de cinta – esencialmente un dispositivo electromagnético capaz de convertir la señal eléctrica en fluctuaciones magnéticas.

Estas fluctuaciones continuas son grabadas en una sección (pista) de un rollo de cinta magnética que pasa por la cabeza de grabación a determinada velocidad.

Tema

03

Page 17: introducción al audio digital v2

17

El proceso de reproducción asegura el movimiento de la cinta por una cabeza de reproducción que realiza esencialmente la función inversa de la cabeza de grabación – las fluctuaciones magnéticas plasmadas en la cinta al pasar por el cabezal de reproducción generan una señal eléctrica (analógica) equivalente, con el mismo tipo de fluctuaciones. Esta señal eléctrica es encaminada a una consola de mezcla donde puede ser combinada (mezclada) con otras señales (normalmente provenientes de otras pistas de la cinta) y reprocesada si es necesario antes de enviarla nuevamente a la cabeza de grabación de un grabador de cinta maestra de dos – pistas.

En cualquier punto del proceso de grabación o reproducción el ingeniero puede escuchar la señal eléctrica (monitoreo) enviándola a un altavoz o auriculares. Estos dispositivos son esencialmente el lado opuesto al micrófono – convierten la señal eléctrica en movimiento físico, provocando un sonido perceptible.

Como sabemos, las grabaciones analógicas no suenan realmente todo lo real que quisiéramos. Por una parte, cualquier etapa del proceso de grabación y reproducción añade un grado de ruido y distorsión a la señal. Por otra, las limitaciones del medio de grabación de cinta analógica y vinilo se perciben en una recepción incompleta del ancho de banda de la grabación original. Finalmente, siempre está presente el ruido de la superficie del vinilo (o el silbido de la cinta analógica), siempre con algún grado de detrimento de la ilusión de realidad que una buena grabación debe entregar.

Mezclador

Grabadora de cinta multipista

Cabeza de grabación

Micrófono

Procesadores de Señal

Page 18: introducción al audio digital v2

18

Grabación Digital

El proceso de grabación digital arranca igual que la grabación analógica estándar: se emplea un micrófono para convertir la vibración física del aire en una señal eléctrica equivalente. Posteriormente, esta señal es pre-amplificada, normalmente por la circuitería de una consola de mezcla y, si lo requiere, puede ser alterada por diversos procesadores de señal analógicos. Luego, ésta es enviada directamente al grabador de audio digital, donde, primero pasa a través de un tipo especial de filtro analógico (conocido como filtro anti-solapamiento) (anti-aliasing) y luego a un dispositivo conocido como conversor analógico-digital (a veces llamado conversor A/D, o ADC) – todo ello integrado en la misma interfaz. Este extraordinario dispositivo tiene la función de “tomar instantáneas” de la señal eléctrica en intervalos de tiempo regulares muy cortos (típicamente milésimas de segundo) y genera una secuencia de números equivalentes al voltaje “observado” en cada intervalo. Para completar el proceso de grabación, los números generados por el ADC son almacenados en algún medio como puede ser un disco duro, un DAT (Digital Audio Tape – Cinta de Audio Digital) u otro medio de almacenamiento digital (el disco duro suele ser superior a los otros medios). Sin embargo, independientemente del medio empleado, lo que distingue los grabadores digitales y analógicos es que los sistemas digitales almacenan números, en lugar de una representación magnética del propio sonido.

Estos números pueden ser manipulados de diferentes maneras, utilizando lo que se conoce como Procesado de Señal Digital (DSP en abreviatura – Digital Signal Processor). La ventaja del DSP sobre el procesado de señal analógico es doble: Uno, el usuario tiene un control extraordinariamente fino; y, dos, virtualmente no existe degradación de la señal como resultado de su procesamiento. La señal digital puede ser transferida directamente a una cinta digital multipista, de dos – pistas (DAT – Digital Audio Tape), o un CD grabable (CD-R), utilizando, ya sea la interfaz AES/EBU, S/PDIF ó algún protocolo de comunicación de ordenador importado: USB, Firewire, iLink, mLAN, etc.

Mezclador

Micrófono Señal AnalógicaFiltro Anti-Solapamiento

ADC

Medio de Almacenamiento

Señal Analógica

Señal Digital

Grabador de Audio Digital

Page 19: introducción al audio digital v2

19

Para oír la señal de audio digital es necesario reconvertirla nuevamente a una señal eléctrica analógica. Esta función la realiza un dispositivo llamado conversor digital-analógico (conversor D/A o DAC), y es justamente la función inversa del ADC; la señal se filtra a priori a través de un filtro de alisamiento, suavizado o de recuperación, el DAC recibe la secuencia continua de números desde el medio de almacenamiento masivo y genera un voltaje equivalente a cada número recibido. Este voltaje es enviado a un altavoz o auricular, donde la señal es una vez más reconvertida a la vibración física del aire, la cual percibimos como sonido.

Medio de Almacenamiento

Filtro de Suavizado

DAC

Altavoz

Sonido

Señal Digital

Señal Analógica

Señal Digital

Grabador de Audio Digital

Page 20: introducción al audio digital v2

20

Muestreo

La operación del ADC de convertir una señal eléctrica en una secuencia de números se conoce como muestreo, y la frecuencia a la cual el ADC adquiere éstas “instantáneas” se conoce como frecuencia de muestreo. La frecuencia de muestreo específica utilizada en la mayoría de los grabadores de audio digital es determinada por el usuario y a menudo cambia de proyecto en proyecto. La selección de la frecuencia de muestreo es siempre un factor de suma importancia en la calidad del sonido final.

Ocho frecuencias de muestreo típicas usadas en el audio digital son: 192 kHz (o sea, 192 000 muestras por segundo), 96 kHz, 48 kHz, 44.1 kHz, 32 kHz y 22.05 kHz, 16 kHz y 8 kHz. A mayor velocidad de muestreo, mayor precisión en la reproducción digital de la señal eléctrica; toma más “instantáneas” en un período de tiempo dado.

El aumentar la frecuencia de muestreo dará como resultado una onda que se parece cada vez más a la señal original, logrando un sonido más preciso y limpio. Sin embargo, al aumentar la velocidad de muestreo, el ADC genera un mayor número de muestras en un período de tiempo dado. Esto es muy importante tenerlo en cuenta porque todos esos números tendrán que ser almacenados en alguna parte, y, en un momento dado, existe sólo una cantidad finita de espacio disponible. De manera tal que, frecuencias de muestreo más bajas permiten almacenar un mayor número de datos a costa de reducir la calidad del sonido, mientras que frecuencias de muestreo altas permiten obtener la mejor calidad de sonido pero requieren de capacidades de almacenamiento altas.

Teorema de Nyquist

Existe una formulación matemática denominada Teorema de Nyquist que establece que el ancho de banda de la señal obtenido está por debajo de la mitad de la frecuencia de muestreo. Como hemos visto, los humanos podemos (como mucho) oír frecuencias de hasta 20 kHz; por lo tanto, para producir una señal que contenga el ancho de banda completo del sonido acústico natural, se necesita utilizar una frecuencia de muestreo mayor del doble. Los CDs emplean 44.1 kHz mientras que los grabadores DAT profesionales emplean 48 kHz.

Las frecuencias de muestreo más bajas – 32 kHz, 22.05 kHz (mitad de la frecuencia de muestreo estándar del CD 44.1 kHz), 16 kHz y 8 kHz – se emplean satisfactoriamente cuando las señales a grabar son de ancho de banda

Tema

04

Page 21: introducción al audio digital v2

21

limitado (por ejemplo, la voz humana) o cuando serán reproducidas en altavoces de baja fidelidad. Probablemente puedan ser útiles en aquellos casos de capacidad de almacenamiento en disco duro muy crítica. De acuerdo al teorema de Nyquist no hay que perder de vista que una señal muestreada a 16 kHz tiene un ancho de banda de alrededor de los 8 kHz y a 8 kHz de aproximadamente 4 kHz (calidad telefónica).

Resolución

Los ordenadores realizan su “magia” reduciéndolo todo a una serie de números. Más concretamente, utilizan el sistema binario de numeración, el cual emplea sólo dos números – cero, representa el estado “apagado” y uno, representa el estado “encendido”. A esta unidad mínima de representación de la información se le conoce como bit (dígito binario).

Cualquier número decimal puede ser representado en el sistema binario o de base dos. Cuanto más grande sea el número a representar mayor será la cantidad de bits necesarios para representarlo. En otras palabras, un ordenador que trabaje sólo con números de cuatro bits sólo podrá representar los números decimales del 0 al 15; un sistema que trabaje con ocho bits sólo puede representar números decimales comprendidos entre 0 y 255; un sistema que trabaje con doce bits sólo puede representar números decimales comprendidos entre 0 y 4095; y un sistema que trabaje con dieciséis bits puede representar números decimales comprendidos entre 0 y 65535 (conjunto de 2N números si N es el número de bits).

Se conoce por resolución al número de bits utilizados por el sistema de grabación digital para representar la señal eléctrica analógica, y éste es el segundo factor crítico (el primero era la frecuencia de muestreo) en la calidad del sonido producido. Para comprender por qué, veamos un ejemplo visual. Aquí tenemos una escala de grises que muestra un amplio rango de valores desde el negro puro al blanco puro.

Page 22: introducción al audio digital v2

22

Ahora supongamos que “muestreamos” la imagen visual con un ordenador (proceso conocido como rastreo) (scaning), pero nuestro hipotético ordenador tiene sólo resolución de un bit; en otras palabras, sólo puede tratar con los valores uno y cero. El resultado final será que cualquier valor de gris por debajo del 50 % será almacenado como 0 (negro) y cualquier valor de gris por encima del 50 % será almacenado como 1 (blanco). La imagen rastreada por consiguiente tendrá el siguiente aspecto:

¿Se parece al original? Nada. Ahora bien, si nuestro ordenador dispone de cuatro bits de resolución en lugar de uno, podemos obtener hasta dieciséis tonalidades de grises diferentes, en el rango desde el 0 (negro puro) hasta el 15 (blanco puro):

Mucho mejor, pero aún no se parece nada al original. Si suponemos que nuestro ordenador dispone de dieciséis bits de resolución podríamos obtener 65,535 tonalidades de grises diferentes, esta vez en el rango desde el 0 (negro puro) hasta 65,535 (blanco puro):

Page 23: introducción al audio digital v2

23

Bien. Aumentando la cantidad de bits de resolución se ha conseguido capturar la imagen original perfectamente (al menos lo perfectamente suficiente como para lo que es capaz de distinguir el ojo humano). Algo similar ocurre cuando se digitaliza una señal de audio: cuantos más bits se utilicen mayor será el parecido de la forma de onda final con la forma de onda original.

También, cuanto más bits se utilicen, mayor será el rango dinámico de la señal final (Observe que en el diagrama anterior la resolución aumenta hacia abajo). Dieciséis bits de resolución permiten, en teoría, un rango dinámico de 96 dB (considerablemente más alto que el obtenido en la grabación analógica) y veinticuatro 144 dB. Se puede considerar que cada bit aporta, aproximadamente, 6 dB.

Entrada Analógica Salida Digital

Page 24: introducción al audio digital v2

24

Filtrado

Todos los sistemas de audio digital utilizan en ambos procesos de grabación y reproducción unos componentes conocidos como filtros. Al igual que el filtro del café elimina las borras indeseadas, un filtro de audio elimina los componentes frecuenciales indeseables. En audio digital, uno de los filtros de mayor interés es el llamado filtro paso-bajo. Este filtro elimina los componentes frecuenciales de la señal que sobrepasen una frecuencia de corte y permite el paso a todas las componentes frecuenciales inferiores a la frecuencia de corte.

Los filtros son muy necesario para neutralizar dos problemas potenciales del audio digital: el solapamiento (aliasing) y el ruido de cuantificación.

Solapamiento

Como se vio antes, el teorema de Nyquist determina como se puede reconstruir una señal a partir de sus muestras. Cualquier sistema de grabación digital sólo puede muestrear frecuencias con precisión hasta la mitad de la frecuencia de muestreo; por ejemplo, si la frecuencia de muestreo es de 44.1 kHz, sólo podrán ser muestreadas con precisión aquellas que no sobrepasen los 20 kHz. Si se intenta muestrear frecuencias más altas que la mitad de la frecuencia de muestreo, el sistema las reproducirá como componentes de baja frecuencia y, como resultado, generará frecuencias audibles espúreas1. Este fenómeno se conoce como solapamiento o aliasing (en la literatura anglosajona). El solapamiento obviamente produce distorsión. La solución es insertar un filtro paso-bajo analógico (conocido como filtro anti-solapamiento) justo antes del muestreo de la señal para limitar la señal en banda. La frecuencia de corte de este filtro es establecida a un valor aproximadamente igual a la mitad de la frecuencia de muestreo:

1 Un efecto similar ocurre cuando vemos moverse lentamente la rueda de un coche en movimiento a una velocidad considerable.

Señal Analógica Filtro Anti-Solapamiento

Señal Analógica

ADC

Señal Digital

Medio de Almacenamiento

Page 25: introducción al audio digital v2

25

El filtro anti-solapamiento asegura que en la señal a muestrear no existan frecuencias por encima de la mitad de la frecuencia de muestreo (esté limitada en banda) y, por lo tanto, cualquier problema de solapamiento es reducido a valores insignificantes.

Ruido de cuantificación

El segundo problema potencial en un sistema de grabación digital es conocido como ruido de cuantificación. El ruido de cuantificación es una distorsión de la señal original debido al hecho que el ADC está recibiendo una señal eléctrica variable continua y sólo puede asignar a cada muestra un número finito de valores. En sistemas de dieciséis bits de resolución, por ejemplo, existen “sólo” 65,536 valores disponibles, y es posible, que en cualquier instante de tiempo dado, la señal analógica tenga algún valor intermedio entre dos niveles posibles. Cuando esto ocurre el sistema simplemente redondea “por exceso” o “por defecto” y genera el valor más próximo disponible.

No está mal, pero no es totalmente preciso. Cuando se envía al DAC un valor ligeramente incorrecto durante la reproducción, se generará una señal analógica que está cerca, pero no es la misma, que la original. En sistemas de ocho – o doce – bits esto provoca la audición de algunos ruidos audibles. En sistemas de dieciséis bits el error de cuantificación sólo produce ligeras deformaciones apenas perceptibles pero no la perfección que se espera tener.

Este problema se soluciona añadiendo al sistema otro filtro (conocido como filtro de suavizamiento o filtro anti-imagen), justo después del DAC.

Page 26: introducción al audio digital v2

26

Análisis/Síntesis

Toda la síntesis digital está elaborada sobre un modelo. Este modelo expresa en lenguaje matemático el conocimiento de la naturaleza del sonido y permite el cálculo de nuevos sonidos con prácticamente cualquier ordenador. El análisis es justamente el proceso complementario que permite extraer ese modelo.

Análisis de Fourier

El análisis de una forma de onda compleja es un método de representación matemática de ese sonido. Fourier demostró que cualquier forma de onda compleja se puede descomponer en una serie infinita de ondas de forma sinusoidal que varían con el tiempo en fase, amplitud y frecuencia. Cuando se habla de ondas sonoras la serie de Fourier se denomina serie armónica. Los armónicos son el equivalente auditivo de los colores fundamentales. De la misma manera que es posible descomponer cualquier color en una combinación de los colores fundamentales, todo sonido puede descomponerse en una serie de sonidos simples.

La imagen muestra el análisis de Fourier de la voz muestreada. Se puede observar el predominio de las bajas frecuencias situadas de 0.5 kHz a 1 kHz en la composición del sonido. El análisis es importante porque nos permite comprender la composición armónica del sonido. Muestra la amplitud de cada componente armónico en cada instante de tiempo.

Tema

05

Page 27: introducción al audio digital v2

27

Otra representación habitual del análisis de Fourier es la proyección bidimensional del espectro (la imagen anterior corresponde al mismo análisis de la voz muestreada). Esta representación destaca la descomposición armónica y la evolución de los formantes (líneas de mayor energía – en rojo).

Las frecuencias de los instrumentos armónicos, excepto los de percusión, se aproximan siempre a un múltiplo entero de la frecuencia fundamental.

El análisis de Fourier del ruido muestra la distribución uniforme de la amplitud de los componentes armónicos en todo el espectro. Desaparecen las relaciones de amplitudes entre armónicos y por consiguiente la percepción de la altura. Cada forma de onda tiene su propia “personalidad” armónica que la herramienta de análisis permite distinguir.

Page 28: introducción al audio digital v2

28

Análisis Coclear

El análisis coclear simula el comportamiento del sistema perceptual auditivo. Los órganos y mecanismos que nos permiten “oír” son muy complejos y no del todo conocidos.

Las ondas de presión sonora que se propagan por el aire inciden en el pabellón auditivo y viajan, a través del oído externo, hasta el tímpano (una membrana muy fina en la frontera del oído medio).

El oído medio contiene una cadena de huesecillos que actúa como transductora de las vibraciones que llegan desde el exterior. El oído medio está cerrado herméticamente; aunque dispone de un canal que comunica con la garganta llamado trompa de Eustaquio. La apertura de este durante breves lapsos de tiempo compensa los excesos o defectos de presión y sirve al oído como conducto de drenaje. La siguiente imagen muestra el análisis de la voz muestreada del ejemplo anterior según el método de Lyon.

0 0.2 0.4 0.6

500

1000

1500

2000

2500

3000

3500

4000

sHz

Los huesecillos del oído medio (martillo, yunque y estribo), actúan como un sistema de palancas y comunican la vibración mecánica desde el tímpano (sobre el que se apoya el martillo) hasta la cóclea o caracol, a través de la ventana oval (sobre la cual se apoya el estribo). La cóclea es el único órgano responsable de la audición en el oído interno. En ella se produce la conversión (mecánico-eléctrica) de la señal analógica a miles de señales nerviosas que viajarán por el nervio auditivo hacia el cerebro. Estas señales, que por la naturaleza neuronal son de tipo digital (trenes de pulsos), codifican adecuadamente toda la información de interés de la señal original para que el cerebro pueda interpretarla.

Page 29: introducción al audio digital v2

29

La cóclea es una estructura, con forma de tubo cónico alargado, enrollada sobre sí misma en forma de espiral. Si se observa una sección transversal de la cóclea se pueden apreciar las tres cámaras que la recorren en toda su longitud: dos canales y el conducto coclear. La cóclea está llena de líquido (una especie de solución salina) y rodeada por paredes óseas rígidas. Apoyado en la membrana basilar se encuentra el complejo y delicado órgano de Corti, que contiene varias filas de diminutas células vellosas a las cuales se conectan las fibras nerviosas. Cada fila de células vellosas contiene unas 7000 células, con un total de 24000 células en varias filas. Cada célula vellosa posee numerosos cilios, que se doblan cuando la membrana basilar responde a un sonido, y desencadena una señal nerviosa en el nervio auditivo.

En la cóclea tiene lugar un análisis espectral. En función de la frecuencia de la señal, la vibración se localiza a lo largo de la membrana basilar excitando unas u otras fibras nerviosas (correspondientes a las diferentes frecuencias). Asimismo, cuanto mayor sea la amplitud de la vibración, mayor será el número de fibras nerviosas estimuladas. Según el patrón de vibración en el interior de la cóclea, la respuesta de cada fibra nerviosa corresponde a la de un resonador selectivo sintonizado a diferentes frecuencias en función de la posición que ocupa cada terminación nerviosa a lo largo de la membrana basilar (teoría del lugar). Las bandas de filtrado no son lo suficientemente estrechas para justificar la percepción precisa del tono y se denominan bandas críticas.

Síntesis Aditiva

La síntesis aditiva es el proceso inverso del análisis; un método de reconstrucción de formas de ondas complejas a partir de la suma de un conjunto finito de componentes sinusoidales; el proceso mediante el cual se obtiene la serie armónica especificando amplitud, frecuencia y fase de cada componente. Se debe tener en cuenta que los parámetros de cada armónico varían con el tiempo; es decir, cada armónico tiene su correspondiente envolvente de amplitud y frecuencia.

Por lo tanto, la síntesis aditiva es un procedimiento de “fabricación” de sonidos de cualquier tipo gracias a un modelo matemático. Cuando se desea recrear un sonido natural es necesario encontrar la composición armónica del sonido. Esta búsqueda es muy laboriosa porque los parámetros son muy numerosos, aunque frecuentemente se les limita a 64 ó 128 armónicos para representar un sonido.

Resíntesis

El análisis y la síntesis son procedimientos complementarios. Los datos de un sonido extraídos del análisis pueden servir para resintetizarlo. En lugar de buscar la creación de un sonido por tanteos sucesivos, el proceso análisis-resíntesis facilita la reconstrucción sintética de los sonidos naturales. A diferencia del sonido muestreado, el sonido sintetizado puede modificarse a voluntad. Es suficiente modificar la amplitud o frecuencia de uno o varios componentes armónicos de un sonido para cambiar su timbre. Por lo tanto, es posible obtener nuevos sonidos sintéticos partiendo de los sonidos existentes en la naturaleza.

Page 30: introducción al audio digital v2

30

2 3 4

1

Síntesis Substractiva

La síntesis substractiva es la forma más generalizada de síntesis analógica, aunque no de manera exclusiva; también se puede conseguir mediante técnicas digitales. El principio de la síntesis substractiva es eliminar, mediante filtros selectivos, componentes armónicos generados a partir de un oscilador generador de formas de ondas (sinusoidales, cuadradas, de diente de sierra, etc.). La evolución de la amplitud se consigue mediante un generador de envolventes (modulador de amplitud). Los timbres se obtienen a partir de formas de ondas complejas y por lo tanto, ricas en armónicos y luego se substraen ciertas porciones de su estructura armónica mediante filtros.

Síntesis FM

La síntesis por modulación de frecuencia, al igual que la síntesis aditiva emplea componentes sinusoidales como elementos básicos. Pero estas componentes no se suman para crear formas de ondas más complejas. La síntesis FM se sirve de un elemento sinusoidal para modular la frecuencia de otro; dos componentes FM son suficientes para crear una serie armónica. Todos los componentes sinusoidales se denominan operadores. Al operador que es modulado se le denomina portador y al operador que modula al otro modulador. Cuando el portador se modula, varía su frecuencia. Esta variación de frecuencia se repite regularmente en el tiempo a la frecuencia del modulador.

Cuando la frecuencia del modulador es muy baja (menos de 20 Hz), una modulación débil se percibe como un vibrato. Cuando la frecuencia de modulación es alta, el vibrato es tan rápido que percibimos varias frecuencias simultáneamente, es decir, escuchamos los armónicos.

Moduladores

Portador

La amplitud del modulador determina la cantidad de armónicos producidos por un par de operadores. La amplitud del portador determina el volumen. Si se utiliza una envolvente para hacer variar la amplitud, esta no va a modificar la cantidad de armónicos y por lo tanto el timbre producido.

Page 31: introducción al audio digital v2

31

3 6

2 5

1 4

Este método, respecto a otros tipos de síntesis, admite una economía de medios considerable; dos operadores y dos envolventes de amplitud son suficientes para la creación de sonidos muy complejos. La síntesis por FM además permite un control global y preciso al mismo tiempo sobre los timbres sin la necesidad de manejar un número considerable de parámetros.

Algoritmos

Los algoritmos constituyen las diferentes combinaciones de operadores portadores y moduladores disponibles. Los operadores portadores están situados en el nivel inferior, y los moduladores encima. Cada algoritmo es útil para la creación de determinados tipos de timbres.

Los algoritmos no están limitados a un sólo nivel de modulación. Varios moduladores pueden modular cada uno a la misma portadora, como el ejemplo del algoritmo anterior. Para crear timbres aún más complejos, que los obtenidos por un simple par de operadores, se pueden utilizar algoritmos de operadores moduladores a su vez modulados como el caso del siguiente algoritmo que emplea seis operadores con varios niveles de modulación:

La multiplicación de los operadores no es la única forma de hacer más complejos los sonidos que se pueden generar por el principio de modulación de frecuencia. Otra manera de obtener timbres complejos consiste en limitar el número de operadores a cuatro y utilizar formas de ondas complejas en lugar de limitarse a formas sinusoidales como elementos básicos.

Síntesis por Distorsión de Fase

Este método, introducido por Casio en 1984, se base en la modulación de la fase (muy similar a la síntesis por modulación de frecuencia). Se basa en modificar la fase de una señal sinusoidal en el tiempo, según se reproduce, para cambiar su forma.

Portador

Modulador 1

Modulador 2

Page 32: introducción al audio digital v2

32

Síntesis por Tabla de Ondas

La síntesis por tabla de ondas2 (Wavetable) consiste en la reproducción de una secuencia de señal digital almacenada previamente en una tabla.

Los sintetizadores por tabla de ondas “leen” cualquier fuente de sonido (digitalizada mediante convertidores A/D) o secuencia generada artificialmente, almacenada en algún tipo de soporte (memoria RAM (Random Access Memory), ROM (Read Only Memory), HDs (Hard Disk), etc.) y aplican algún tipo de procesado de señal, mediante técnicas digitales (muchos permiten la generación y control de efectos en tiempo real) antes de la reproducción analógica del sonido (mediante convertidores D/A).

Los sintetizadores por tabla de ondas no necesitan tener almacenadas las muestras de cada una de las notas de un instrumento y en principio bastaría sólo una nota para poder reproducir el registro completo de un instrumento. La velocidad de reproducción de la tabla determina la altura. A mayor velocidad, el mismo sonido sonará más agudo y a menor velocidad más grave. Típicamente los dispositivos de síntesis por tabla de ondas incluyen procesadores de señal digital capaces de realizar, mediante algoritmos previamente programados, estas y muchas otras aplicaciones en tiempo real. La generación de cualquier nota del instrumento a partir de una nota base se realiza mediante complejos algoritmos de cambio de frecuencia de muestreo donde intervienen diezmadores, interpoladores y filtros digitales. Este método típicamente no se realiza de esta manera, porque los instrumentos reales, aunque mantienen una serie de características tímbricas en todo el registro, en realidad varían armónicamente de sección en sección. Si analizamos todas las notas generadas por un piano (por ejemplo) en igualdad de condiciones notaremos que las envolventes varían entre las diferentes secciones (una sección es un conjunto de notas con características tímbricas muy similares).

La mayoría de los sintetizadores por tabla de ondas permiten combinar diferentes muestras con las diferentes secciones del instrumento, logrando la imitación casi perfecta de un instrumento (en principio se puede tener el instrumento muestreado nota a nota – sobre todo los samplers basados en disco duro) y no sólo eso sino también la mezcla con otras muestras lo que permite obtener un conjunto ilimitado de sonidos.

Debido a la limitada cantidad de memoria que utilizan los instrumentos por tabla de ondas, es común simular los sonidos sostenidos mediante la repetición de un segmento de muestras bastante corto. A estos fragmentos se les denomina bucles (loops). Esta técnica precisa una selección muy cuidadosa de los puntos inicial y final del bucle, que típicamente coinciden con puntos de amplitud nula (cruces por cero) (algunos sonidos de percusión se pueden enlazar escogiendo dos puntos de máxima amplitud).

2 Este tipo de síntesis también se conoce por síntesis PCM. La modulación de impulsos codificados (Pulse Code Modulation - PCM) no es una forma de síntesis, sino una forma de gestión del sonido (grabación - reproducción digital del sonido). La analogía se establece por el uso como de muestras digitalizadas en la síntesis por tabla de ondas.

Page 33: introducción al audio digital v2

33

Síntesis por Modelado Físico

En realidad la síntesis por modelado físico no es un tipo específico de síntesis sino, más bien, una colección de técnicas que permite la simulación de los instrumentos musicales acústicos. El método clásico de modelado físico define un sistema de ecuaciones matemáticas que describe el comportamiento acústico del instrumento. Estos sistemas suelen ser muy complejos, costosos (desde el punto de vista computacional) y difíciles de comprender por los músicos. Los métodos alternativos modularizan las ecuaciones en bloques funcionales. El objetivo de la síntesis por modelado físico es producir una emulación convincente de la mayoría de los instrumentos acústicos a la vez que permite el diseño de instrumentos virtuales imposibles de construir. Por ejemplo, guitarras con la caja de cáscara de huevo, xilófonos de hueso o cristal, flautas de varios metros de largo, etc.

Page 34: introducción al audio digital v2

34

Procesado Digital de Señal

Aunque el procesado digital de señal está típicamente relacionado con dispositivos especializados (Digital Signal Processor – DSPs) para realizar millones de operaciones en coma flotante por segundo, en realidad procesado digital de señal es cualquier transformación que se realice sobre el sonido digitalizado. Aunque el proceso o algoritmo que se aplique a las muestras puede ser muy diverso según el objetivo que se pretenda, existen un grupo de utilidades indispensables en cualquier sistema de audio digital dentro de las cuales cabe mencionar los efectos.

Estos algoritmos pueden operar en tiempo real (a menudo en DSPs) o en tiempo diferido (en microprocesadores de propósito general antiguos)3. La aplicación de los algoritmos de procesado en cualquier caso depende de la velocidad de proceso disponible y no de la propia naturaleza de los algoritmos.

Ecualización

La ecualización es una técnica que modifica el contenido armónico de la señal provocando realces y atenuaciones en diferentes bandas de frecuencia. Todos los tipos de ecualización son formas de filtrado.

Se pueden distinguir dos clases de ecualizadores diferentes: el ecualizador gráfico y el ecualizador paramétrico y la combinación de ambos: el ecualizador paragráfico. La diferencia fundamental entre ambos reside en el hecho de que el primero ecualiza siguiendo cortes de frecuencias fijos mientras el segundo permite realizar una definición precisa de la magnitud de las frecuencias que se desea modificar.

La ecualización gráfica consta de un conjunto de filtros con ancho de banda de igual anchura logarítmica (hay ecualizadores de octava, de media octava, de tercio de octava).

Un ecualizador paramétrico, es un ecualizador de pocas bandas (entre 1 y 3 es lo corriente), pero en el que los parámetros ajustables de cada banda son mucho más que tan sólo la ganancia (de ahí su nombre).

3 La frontera entre los DSP y los microprocesadores de propósitos generales es cada vez más débil. El aumento de capacidad de cálculo de los ordenadores y la incorporación de operaciones matemáticas específicas de los DSP han mermado la necesidad de los DSP (en otras palabras ya no es necesario descargar al ordenador de proceso).

Tema

06

Page 35: introducción al audio digital v2

35

Se puede gobernar la frecuencia central, la ganancia y la Q del filtro (su factor de calidad o resonancia: relación entre la frecuencia central y el ancho de la banda de paso cuando la ganancia cae 3 dB). Permiten una selectividad mucho mayor que los gráficos.

Barrido de Frecuencia

El barrido en frecuencia se consigue con un filtro paso-bajo con frecuencia de corte variable que oscila cíclicamente bajo control de un oscilador de baja frecuencia (LFO – Low Frequency Oscillator).

Wha-Wha

El Wha-Wha es también un filtro (en este caso resonante) en el que la frecuencia central se mueve cíclicamente bajo control de un oscilador de bajas frecuencias y en el que el factor de resonancia es elevado

Vocoder

Este efecto trata de imponer la envolvente espectral de una señal de control, sobre la señal que realmente se procesa (multiplicación en el dominio de la frecuencia). El primer uso del vocoder fue hacer que los instrumentos hablaran, pronunciando palabras. La calidad e inteligibilidad dependen del carácter del instrumento (los instrumentos de espectro amplio, ricos en armónicos, dan lógicamente mejores resultados).

Reverberación

Las unidades de reverberación simulan o recrean las características reverberantes de distintos recintos. Los algoritmos de reverberación deben emular el comportamiento del sonido en una pequeña habitación, en una sala de conciertos, en una catedral, etc.

La reverberación además puede mejorar la definición y separación de los diferentes instrumentos en una grabación y crear espacios imposibles o inaccesibles, introducir ciertas ilusiones psicoacústicas, etc.

Eco

El eco (delay) reproduce el comportamiento del eco natural realimentando a su entrada una réplica de la señal pasado un cierto tiempo. En los algoritmos del eco intervienen al menos los siguientes elementos: el retardo, la mezcla de la señal diferida y la original y, finalmente, el porcentaje de realimentación (típicamente una función del tiempo).

Page 36: introducción al audio digital v2

36

Coro

El coro (chorus) es, al igual que la reverberación y el eco, un efecto cuya estructura incluye la utilización del retardo. Se trata de un mecanismo que crea la sensación de la existencia de varios ejecutantes tocando la misma línea, y recreando al mismo tiempo, las variaciones lógicas que cabe observar en un mismo fragmento interpretado por varios músicos. Esto se consigue aplicando un retardo corto a la señal (entre 10 y 15 milisegundos) y alterando a continuación, la afinación – en grado mínimo – de la señal diferida.

Flanger

El flanging comenzó a utilizarse en los años 60. Se grababa la misma música en dos máquinas que luego reproducían simultáneamente, acelerándolas y frenándolas con las manos, opuesta y alternativamente, para producir cancelaciones de fase en distintos puntos del espectro. El flanger genera una aproximación a este efecto mezclando una señal con una versión retardada de sí misma, y modulando el tiempo de retardo cíclicamente.

La modulación suele ser muy lenta (entre 0.1 Hz y 10 Hz). La realimentación permite exagerar las resonancias, hasta el punto de llevarlas al borde de la oscilación, produciendo un sonido desnaturalizado, marcadamente metálico, que impone su propia afinación a la de la fuente.

Phaser

El phaser o shifter es un efecto en el que se suma la señal original con una versión de la misma en la que la fase se modula cíclicamente; da lugar a la cancelación de algunas frecuencias y el refuerzo de otras.

Alteración de la Altura

Modifica la altura (tono o afinación) del sonido sin cambiar la duración, o bien reajusta la duración, sin modificar la afinación, manteniendo el timbre en ambos casos. Existen variantes de esta familia de algoritmos que permiten cambiar el tono sin alterar la duración ni el timbre siempre que el desplazamiento que se exija sea de pocos semitonos (no más de 4 ó 5).

Entre otros usos, permite corregir a cantantes desafinados (con frecuencia los cantantes malos son incapaces de cantar en perfecta afinación con los músicos pero mantienen una desviación constante respecto a ellos), modificar voces (para impedir su reconocimiento), ampliar el registro de cantantes o instrumentos (haciendo algunas notas que le son imposibles), corregir notas erróneas en grabaciones por lo demás perfectas (evitando tener que regrabar toda la intervención), efectos cosméticos y psicoacústicos (una voz que mantiene el timbre conocido pero con la altura ligeramente subida supone una novedad atractiva a nuestro oído).

Page 37: introducción al audio digital v2

37

Armonizador

El armonizador es un caso particular de alteración de la altura. Los armonizadores típicamente generan más de una salida, de manera tal, que permiten disponer del sonido original y del mismo desplazado varios intervalos definibles por el usuario. Por ejemplo, un armonizador de tres voces permite la generación automática de acordes de tres notas (la original más dos desplazadas).

Puertas de Ruido

Los algoritmos de puertas de ruido comparan la energía local de la señal de entrada con un cierto umbral, y cuando no lo alcanza se le aplica una ganancia cero (se silencia la salida). Cuando la energía de la señal sobrepasa el umbral, la ganancia que se aplica es 1.

Esto permite que, cuando la señal tiene suficiente nivel como para que el ruido no se note en exceso, la señal no se modifique; pero si la señal baja de nivel (y por tanto el ruido comienza a ser evidente) se fuerza salida nula. En muchas puertas de ruido aparecen los parámetros ataque y desvanecimiento, que determinan la “inercia” de la puerta en el encendido y el apagado.

Limitador

El limitador se utiliza para disminuir el volumen de los sonidos fuertes. En la grabación de un locutor, por ejemplo, los niveles de volumen pueden saltar rápidamente, particularmente sobre las consonantes duras. El limitador atenuará el volumen de estos exabruptos ocasionales de la voz logrando un sonido más suave y profesional.

Compresor

El compresor es muy similar al limitador, pero opera en sentido contrario realzando el nivel de los sonidos débiles. Este efecto puede ser muy útil cuando se procesan instrumentos percutidos.

Expansor

El expansor, a la inversa que un compresor, aumenta el margen dinámico de las señales que no sobrepasan determinado umbral. La puerta de ruido es un caso extremo de expansor.

Page 38: introducción al audio digital v2

38

Distorsión

La distorsión u overdrive es un efecto altamente no lineal que introduce, a propósito, una fortísima distorsión (la diferencia, nunca muy bien definida, está en el color de una y otra: el overdrive tiene un carácter más cálido mientras la distorsión es más hiriente; el overdrive suele generar armónicos pares, mientras la distorsión degenera todo tipo de armónicos).

Modulador en Anillo

El modulador en anillo genera el producto de sus dos entradas. Fue ampliamente utilizado, en su versión analógica, por los pioneros de la música electroacústica.

Conversión de la frecuencia de muestreo

La conversión de la frecuencia de muestreo resulta particularmente útil para el intercambio entre diferentes medios digitales, adecuación de las muestras digitales a la frecuencia de un determinado soporte, etc. Debe tenerse en cuenta que convertir de frecuencias altas a bajas de muestreo conlleva a cierta pérdida de calidad de la señal, aunque incrementa las posibilidades de almacenamiento y tratamiento.

3D

El sonido “tridimensional” o simplemente 3D es una herramienta que permite, valiéndose de los dos altavoces tradicionales del estéreo, crear sensaciones de espacio reales. De la misma manera que los ojos nos proporcionan la percepción de la profundidad, los dos oídos funcionan conjuntamente para proporcionar la percepción de la localización del sonido. En los mecanismos de localización del sonido influyen muchos factores. Los métodos para obtener este efecto, generalmente, no se basan en modelos teóricos de las características auditivas del ser humano, sino en experiencias personales de personas reales. En general este método consiste en aplicar a un conjunto numeroso de individuos pruebas auditivas para identificar las sutiles diferencias existentes en el proceso auditivo que influyen en nuestra facultad para localizar sonidos. Con esta gran masa de datos se construye un filtro digital que simule los resultados observados.

Esta técnica permite “colocar” un sonido en cualquier punto dentro de un semicírculo de 180 grados, cuyo centro es el oyente (requiere la colocación del oyente formando un triángulo equilátero con los altavoces). No sólo sirve para colocar el sonido alrededor del oyente a la altura del oído, sino que también permite emplazar los sonidos hacia arriba o hacia abajo.

Page 39: introducción al audio digital v2

39

MIDI

El MIDI (Musical Instrument Digital Interface – Interfaz Digital de Instrumentos Musicales) es un conjunto de especificaciones recogidas en un documento (la versión MIDI 1.0 fue publicada en Enero de 1983) cuyo único propósito es establecer una norma para que todos los instrumentos digitales puedan comunicarse entre sí (independientemente de la tecnología o fabricante). A lo largo de su dilatada vida el estándar MIDI ha visto aparecer y desaparecer a un buen número de competidores. No es perfecto, pero nació con más que suficientes recursos para sobrevivir.

Introducción

Los instrumentos musicales digitales actuales son en realidad ordenadores especializados que integran uno o más microprocesadores. Una de las funciones principales de estos microprocesadores es la de transmitir al módulo de generación del sonido los gestos del músico, es decir, qué nota ha tocado, con qué fuerza, etc. Estos gestos son codificados de manera tal que puedan “instruir” al módulo generador de sonido sobre qué hacer. Con un “lenguaje” común de codificación de tales gestos cualquier módulo generador de sonido que recibe estas órdenes puede producir el sonido deseado o modificar determinado parámetro involucrado en el proceso de generación musical. Esta especie de “lenguaje universal entre instrumentos musicales” es justamente lo que especifica el estándar MIDI.

El MIDI permite el intercambio de información entre todos los instrumentos musicales dotados de microprocesador. Esta información empaquetada en mensajes es muy variada y con muy distintos propósitos. Por ejemplo, la transmisión de lo que toca un músico desde un teclado o controlador MIDI hacia un sintetizador que, frecuentemente, está desprovisto de teclado; la grabación de lo tocado en un secuenciador para su posterior edición y reproducción; el arranque a distancia de este secuenciador; el almacenamiento y la transmisión de los timbres de un sintetizador hacia otro o hacia un ordenador, etc.

MIDI no es sólo un lenguaje universal entre instrumentos (un protocolo de comunicación), sino que especifica también como debe ser la interfaz física de estos instrumentos y sus conectores.

Tema

07

Page 40: introducción al audio digital v2

40

Salida Entrada A través

A través

Interfaz Físico

Externamente es posible reconocer la instalación MIDI de un instrumento musical por lo tres conectores DIN (a veces sólo dos) de cinco patillas colocados en su parte trasera. Cada uno de estos conectores realiza funciones totalmente distintas

La toma de Entrada (IN) recibe la información MIDI proveniente de otro aparato. La toma de Salida (OUT) transmite la información MIDI hacia otro aparato, mientras que la toma A Través (THRU) sólo retransmite, sin modificaciones, la información MIDI que llega a la toma de entrada (esta toma sirve para “encadenar” varios dispositivos MIDI y no siempre está disponible).

Aunque los conectores tienen cinco pines, en realidad sólo se utilizan los tres del centro. Los sistemas MIDI circulan a través de la red MIDI de forma serie. Esto facilita las conexiones y permite utilizar cables más simples (sólo hacen falta tres vías), a diferencias de las comunicaciones paralelo; pero obliga a utilizar una alta velocidad de transferencia (la transferencia serie requiere enviar los datos secuencialmente; incluso aquellos eventos musicales que ocurren simultáneamente, como los acordes). La velocidad especificada por el estándar MIDI es de 31250 bits/segundo y es lo suficientemente alta como para que el oyente no detecte las diferencias de tiempo en la aparición de los diferentes notas componentes de un acorde.

El enlace MIDI es muy insensible al ruido y desacopla galvánicamente los diferentes instrumentos de la red lo que la hace fiable y segura.

Page 41: introducción al audio digital v2

41

Mensajes MIDI

Un primer paso sumamente importante para explotar el MIDI es comprender razonablemente todos sus mensajes. Los mensajes MIDI se pueden agrupar en dos grandes categorías: mensajes de canal y mensajes de sistema.

En una red MIDI pueden convivir diferentes instrumentos. Cuando un instrumento MIDI envía un mensaje a la red este mensaje es recibido por todos los instrumentos conectados a dicha red. Existe una serie de órdenes o mensajes comunes a todos los instrumentos relacionados con la sincronización, etc. pero existen otros mensajes que son dirigidos específicamente a uno o varios de todos los instrumentos conectados. En este caso cada instrumento debe saber diferenciar si el mensaje que recibe es o no de su incumbencia. Cada instrumento tiene una forma o modo de reaccionar ante los mensajes, pero de cualquier forma, lo que le permite distinguir entre ignorar o no el mensaje que recibe es el número de canal.

Mensajes de Sistema

Los mensajes de sistema son atendidos por todos los instrumentos conectados a la red MIDI sin tener en cuenta los canales MIDI a los cuales puede responder. Estos mensajes, como era de suponer, no incluyen número de canal MIDI. Las notas que produce un dispositivo MIDI son transferidas a la red secuencialmente y en el mismo orden cronológico de creación. Si se desea reproducir estos gestos posteriormente, no basta con registrar la ristra de mensajes MIDI con la información de las notas, etc.; es también necesario registrar el orden y la duración de cada acontecimiento. Un grupo de mensajes de sistema se dedica exclusivamente a la gestión de tiempos.

Mensajes de sistema de tiempo real

La forma más natural de sincronizar instrumentos MIDI es que uno de ellos envíe una cadencia regular a los demás. Antiguamente se utilizaban una serie de pulsos electrónicos sencillos pero el MIDI garantiza la sincronización mediante un mensaje. Cada pulso queda reemplazado por un mensaje MIDI de un solo byte: el mensaje de reloj MIDI.

La cadencia con que se envía este mensaje de reloj es de 24 impulsos por negra (quarter note – nota de valor 4). Esta forma de contar está relacionada con el tempo, ya que la nota negra le sirve de unidad de medida.

Tema

08

Page 42: introducción al audio digital v2

42

El sistema de reloj MIDI difiere radicalmente del sistema antiguo basado en pulsos en que las secuencias no se arrancan y paran, arrancando y parando, las señales de reloj; sino que hay mensajes específicos para iniciar y parar una secuencia, y la señal de reloj es de tipo continuo. No es realmente esencial que la señal de reloj esté funcionando todo el tiempo y, si se desea, puede comenzar tras un mensaje de arranque y parar tras un mensaje de detención. Eso queda a la elección de los diseñadores de programas y de equipos.

Además de los mensajes de arranque y parada existe un mensaje de continuación. Este mensaje reanuda la secuencia, pero desde el punto donde se detuvo. Con el mensaje de arranque la secuencia siempre comienza desde el principio, incluso si se detuvo a la mitad por un mensaje de parada.

Estos mensajes son de un solo byte. La temporización exacta de estos mensajes es esencial, ya que cualquier pérdida de exactitud en los mismos se reflejaría en una mala temporización de la secuencia que se está reproduciendo. El estándar MIDI permite enviar estos mensajes en medio de otros, para conseguir una temporización exacta.

Mensaje exclusivo de sistema

Para ser eficaz, el estándar MIDI tuvo que imponer normas bastante rígidas. Pero, a su vez, el estándar no podía ser completamente rígido; había que dar a los fabricantes la posibilidad de implementar nuevas e imaginativas utilidades en sus equipos.

El mensaje exclusivo de sistema fue la primera solución a este conflicto de intereses. El mensaje está delimitado por un byte de inicio y otro de fin de mensaje y entre medias permite insertar un número ilimitado de bytes. La norma también establece que el primer byte que sigue al de inicio de mensaje debe corresponder al código de identificación del fabricante. La forma exacta de codificar la información en esos bytes de datos queda completamente a discreción del fabricante.

La puerta que abrió este mensaje augura vida eterna al MIDI. La capacidad de adaptación y expansión que provee le ha hecho llegar hasta hoy con una vitalidad impresionante.

Mensaje de posición de canción

En este contexto la palabra “canción” significa realmente una secuencia de mensajes MIDI y el mensaje de posición de canción sería más apropiado denominarlo de “posición en la secuencia”. El propósito de este mensaje es situar a dos secuenciadores en la misma posición de la secuencia. La tendencia moderna es tener todo bajo el control de un solo secuenciador.

Page 43: introducción al audio digital v2

43

Mensaje de selección de canción

El mensaje de selección de canción permite conmutar de una secuencia a otra.

Mensaje de requerimiento de afinación

Algunos instrumentos disponen de una utilidad de afinación automática incorporada. Cuando se activa, mediante este mensaje MIDI o por los controles del panel central, la afinación del instrumento se ajusta según un oscilador de referencia. Normalmente el efecto es ajustar el instrumento con un LA a una frecuencia de 440 Hz.

Mensaje de monitorización (espera) activa

El mensaje de monitorización debe ser enviado por el controlador MIDI de la red al menos cada 300 milisegundos (0.3 segundos) si no hay ninguna otra actividad MIDI. Si un instrumento MIDI no recibe este mensaje o algún otro mensaje MIDI, sabe que ha habido algún fallo en algún lugar del sistema y puede silenciar todos sus circuitos generadores de sonido. Así se evita la posibilidad de que queden notas sonando si se produce un fallo; por ejemplo porque alguien tropiece con un cable MIDI y lo desenchufe o rompa en medio de la reproducción de una secuencia.

Mensaje de reajuste del sistema

El mensaje de reajuste del sistema devuelve el instrumento a su configuración inicial. Esto significa que volverá al estado en el que queda después del primer encendido.

Mensajes de Canal

La norma MIDI contempla 16 canales; lo que permite dirigir los mensajes individuales a 16 instrumentos diferentes. Sólo actúan (que no responden4) los instrumentos ajustados al mismo canal MIDI que porta el mensaje. Los mensajes de canal sirven para transcribir los gestos musicales: qué nota se toca, con qué intensidad, hacia qué instrumento, qué pedal o mando de control se emplea. Los mensajes de canal llevan asociado un número de canal, en binario, en el intervalo del 0 al 15, aunque en realidad la convención MIDI numera los canales del 1 al 16.

Modos

Los Modos MIDI controlan cómo responde un determinado instrumento a los mensajes de canal. Los mensajes de sistema se tratan siempre de la misma forma, independientemente del modo seleccionado.

4 En una red MIDI los instrumentos procesan los mensajes que le llegan pero nunca emiten mensajes de respuesta. En tales redes sólo hay un instrumento maestro y todos los demás actúan como esclavos.

Page 44: introducción al audio digital v2

44

Hay una pequeña complicación con los modos MIDI, y es que tienen sus nombres originales, sus nombres actuales y sus números de modo. Aclaremos dos cosas antes. Un instrumento configurado en modo omni (es decir: omni on) debe responder a cualquier mensaje de canal, independientemente del canal al que esté configurado (la configuración se realiza en el propio instrumento). Un instrumento poly puede generar más de una voz simultáneamente (acorde) a diferencia de los instrumentos configurados mono que sólo pueden generar una voz. Una voz corresponde al sonido generado por una nota. El número de voces determina la capacidad polifónica del instrumento. Los instrumentos multitímbricos son capaces de generar sonidos de diferentes timbres simultáneamente. En este caso las voces del instrumento se reparten entre los diferentes timbres.

Modo 1 – omni on/poly

Este modo se conocía anteriormente sólo como omni, y es el más básico. El modo 1 pretende asegurar que cualquier pareja de equipos MIDI se puedan comunicar entre sí. Esto se logra ignorando completamente los números de canal. Un instrumento que esté en el modo 1 responderá a los mensajes de cualquier canal. La parte de su nombre que dice omni on indica que no se consideran los canales. El término poly indica que es un modo polifónico y no hay límite al número de notas que se pueden tocar de modo simultáneo (teóricamente claro, el número real estará en las voces). Este modo es muy básico y provee muy poca versatilidad por lo que sólo se utiliza para repara una red MIDI (como una herramienta de diagnóstico).

Modo 2 – omni on/mono

Este modo se parece mucho al modo1, pero como indica la palabra mono sólo permite tocar una nota a la vez. Con el sistema limitado a una sola nota en cada momento, este modo es el más básico de los cuatro, y tiene poca importancia práctica. Probablemente su inclusión en el estándar MIDI se debe a la existencia de sintetizadores monofónicos.

Modo 3 – omni off/poly

Este modo es probablemente el modo más potente de los cuatro. Su nombre original fue modo poly, la parte omni off indica la incorporación de canales MIDI. Por tanto, un instrumento que trabaje en este modo responderá sólo a mensajes de sistema y mensajes de canal ubicados en el canal correspondiente, e ignorará totalmente los de los canales que no estén seleccionados5. La idea principal de este modo es que permite emplear varios instrumentos a la vez, cada uno por canal o grupos de canal. Como se trata de un modo polifónico cada instrumento podrá tocar tantas notas al mismo tiempo como permita su hardware.

5 Un instrumento puede responder a varios canales.

Page 45: introducción al audio digital v2

45

Modo 4 - omni off/mono

Este modo se denominó originalmente modo mono y muchas veces se le sigue llamando así. Es básicamente una versión monofónica del modo 3. Es particularmente útil porque posibilita tener un sonido diferente por cada canal MIDI en un instrumento.

Mensajes de cambios de modo

Los mensajes de cambios de modo se utilizan para establecer el modo de trabajo del instrumento: omni on/off, poly/mono.

Mensajes de activación y desactivación de nota

Los mensajes de activación y desactivación de nota son los mensajes MIDI más importantes y utilizados. Estos mensajes indican el principio y fin de una nota. No portan información de tiempo; la duración de la nota depende del intervalo de tiempo que transcurre entre ambos eventos. Estos mensajes, ambos, portan información de la nota correspondiente y la intensidad o fuerza de ataque o la de desvanecimiento según el caso.

La forma en que la información de velocidad6 controla el generador de sonido de un instrumento es cuestión de cada fabricante o diseño. El valor de la velocidad en el mensaje de activación controla el volumen de la nota y puede controlar también otros aspectos del circuito generador de sonido como el tiempo de ataque de las notas.

El valor de la velocidad en el mensaje de desactivación se puede utilizar para controlar el tiempo de desvanecimiento de las notas, pero en realidad no todos los fabricantes lo emplean. Por esta razón la especificación MIDI especifica también que un mensaje de desactivación de nota es equivalente a un mensaje de activación con velocidad nula.

Mensaje de presión global de pulsación de teclas

La fuerza o presión de pulsación difiere de la velocidad de pulsación, empleada en los mensajes de activación y desactivación de nota, en que el valor de la velocidad da una medida de la fuerza con la que la tecla se pulsa inicialmente, y es en realidad una medida de lo rápido que se mueve la tecla. La fuerza o presión, sin embargo, es una medida de la fuerza con que se mantiene pulsada la tecla una vez que ha llegado al tope. En terminología musical, los valores que envían valores de velocidad se denominan sensibles a la pulsación, y los que envían mensajes de presión de pulsación se denominan postpulsación. Estas dos opciones no son mutuamente excluyentes y la mayoría de los instrumentos MIDI actuales incorporan las dos. 6 En el estándar MIDI se le denomina “velocidad” a la fuerza o intensidad de la nota. La razón es la relación que existe entre la intensidad de una nota y la velocidad con que viaja la tecla de un teclado, cuando es tocada, desde la posición de equilibrio hasta la posición extrema. Lo mismo ocurre con la “velocidad” del mensaje de desactivación o apagado de una nota. En este caso la intensidad de desactivación corresponde a la velocidad con que la tecla recupera su posición de equilibrio desde la posición extrema. La relación de estos parámetros con el teclado o piano se debe a su posición histórica e importancia. Las primeras interfases o controladores MIDI adquirieron la ergonomía del piano y son los de mayor uso.

Page 46: introducción al audio digital v2

46

Mensaje de presión de pulsación de teclas en modo polifónico

La presión de pulsación polifónica difiere de la global en que proporciona diferentes valores de presión para cada tecla, y no un valor promedio de todas las notas de un canal.

Mensaje de cambio de programa

En este contexto, la palabra programa (patch) se suele referir a un conjunto de parámetros que definen la generación de sonidos en un sintetizador. El mensaje de cambio de programa sirve para cambiar el sonido de un instrumento o timbre. Este cambio es en relación de un sonido preestablecido con otro, no un medio de ajustar parámetros individuales del circuito generador de sonidos. Aunque la aplicación más común de los mensajes de cambio de programa es el cambio de instrumento, pueden ser usados para otros fines. Un ejemplo típico son los mezcladores de audio controlados por MIDI; donde los mensajes de cambio de programa se pueden emplear para conmutar entre diversos grupos de atenuación. Los mensajes de cambio de programa se utilizan mucho también en las unidades de efectos digitales.

Mensaje de cambio de la altura

Las órdenes de activación y desactivación de nota dan sólo una resolución de un semitono. Mediante el mensaje de cambio de altura es posible aumentar esta resolución. No estaba tan claro que un control tan fino de la altura fuese realmente útil en la práctica. Sin embargo, tiene una aplicación inmediata en la generación de música micro-tonal, la alteración natural de muchos instrumentos (como la palanca de la guitarra eléctrica), etc. Cuánto varía la afinación según el valor de este mensaje depende de cada instrumento. El rango de alteración de la altura en la mayoría de los sintetizadores es de +/- 2 medios pasos por cada incremento. Para un uso de toda la resolución habría que variar la altura en incrementos muy pequeños. Se necesitaría así un gran número de mensajes para producir sólo una pequeña variación de la altura, cosa que la implementación física del MIDI no permite. Otro aspecto importante es que este mensaje afecta a todas las notas activas en el canal (lo que fuerza al uso de varios canales para producir música microtonal mediante este mensaje. Otra opción podría considerar la modificación de las tablas de afinación del instrumento vía un mensaje exclusivo de sistema).

Mensaje de cambio de control

Los mensajes de cambio de control, a diferencia del resto de los mensajes de canal, se pueden emplear para alterar cualquier parámetro que el fabricante del instrumento desee. Puede ser un parámetro del generador de sonidos, como el tiempo de ataque o la forma de la envolvente, o parámetros más generales como el nivel de volumen. Es importante advertir que no existe una verdadera estandarización de los controles MIDI. Esto se traduce en que, lo que produce el efecto deseado en un instrumento, puede producir un efecto completamente distinto en otro, o quizá ninguno.

Page 47: introducción al audio digital v2

47

Se recomienda prestar una atención muy cuidadosa en el empleo de los controles MIDI. A continuación se muestra una tabla de algunos controladores típicos recomendados

Número de Control Función 1 Rueda de Modulación 2 Controlador de soplo 4 Pedal 5 Tiempo de portamento 6 Botón de entrada de datos 7 Control de volumen principal 8 Balance 10 Panorámica 64 Pedal de sostenido 65 Portamento 66 Sostenido 67 Pedal soft 92 Profundidad de trémolo 93 Profundidad de coro 94 Profundidad de celeste 95 Profundidad de fase 96 Incremento de entrada de datos 97 Decremento de entrada de datos 98 Byte más significativo de parámetro no registrado 99 Byte menos significativo de parámetro no registrado 100 Byte más significativo de parámetro registrado 101 Parámetro registrado

Para utilizar los controles MIDI es necesaria una lectura cuidadosa de las cartas de implementación MIDI en los manuales del equipo. Debido a la naturaleza general de los controles MIDI, es muy posible que varias unidades sean incompatibles, y por tanto incapaces de operar juntas de forma adecuada.

En la definición de los números de control se dejó también una puerta abierta a la expansión del estándar: los números de parámetros no registrados. Los números no registrados pueden ser utilizados por cualquier fabricante para asignar el parámetro que deseen (sólo deben documentarlos en sus manuales para su uso)

Page 48: introducción al audio digital v2

48

Mensaje de desactivación de todas las notas

El mensaje de desactivación de todas las notas se emplea por una función incluida en prácticamente cualquier secuenciador conocida por pánico. Este mensaje apaga todos los circuitos de generación de sonido de los instrumentos y se utiliza sólo en casos de interrupción del secuenciador o avería. Suponga que el secuenciador envía un mensaje de activación de nota y se interrumpe bruscamente su operación. Si la nota corresponde a un instrumento de percusión de seguro no habría problemas porque los sonidos que generan los instrumentos de percusión son cortos o de duración finita (de hecho muchas veces los secuenciadores no envían el mensaje de desactivación de nota a los instrumentos percutidos) pero si la nota corresponde a un instrumento de bucle infinito (como puede ser el sonido de un sintetizador analógico) se quedaría sonando sin parar.

Mensaje de control local

El mensaje de control local permite desactivar los métodos normales de control manual de un instrumento, es decir, desactiva el teclado. Obviamente, hay instrumentos MIDI que no son de teclado, y la desactivación del control en estos casos puede significar, por ejemplo, la desactivación de un control de viento. Estrictamente hablando, este mensaje no desconecta el teclado, ni otros medios de control local; sino que se aíslan del circuito generador de sonidos.

Page 49: introducción al audio digital v2

49

Funcionalidad MIDI

Algunos componentes típicos en una configuración MIDI son: ordenadores, sintetizadores, módulos de sonido, muestreadores de sonido (samplers), mezcladores de audio, etc. Las funciones de cada uno de estos componentes pueden estar más o menos concentradas. Un ordenador, cuya tarea principal generalmente es la de servir de secuenciador, puede además incluir una tarjeta de sonido que actúe como módulo de sonido (la que a su vez puede funcionar como un muestreador o no), o un programa de mezcla que simula una mesa de mezclas analógica, e inclusive el hardware necesario que le permita sincronizar todos los dispositivos de la red. Un sintetizador o estación de trabajo puede incluir secuenciador, sintetizador, etc. Así que, en lugar de periféricos MIDI, es más conveniente hacer referencia a la funcionalidad de los distintos periféricos MIDI con mayor o menor grado de especialización.

Secuenciadores

Un secuenciador es un programa7 que se encarga de gestionar los datos MIDI. Los secuenciadores permiten la grabación, edición, almacenamiento y reproducción de las secuencias MIDI y pueden tener, muy probablemente, muchas otras funciones adicionales (como la trascripción de las secuencias MIDI a partituras en el formato de notación occidental, etc.).

Los secuenciadores generalmente organizan los eventos o notas MIDI en un determinado número de pistas virtuales, análogas a las pistas de las grabadoras multipistas tradicionales, cada una asociada generalmente a determinado canal (aunque lo típico es que existan más de una pista asociada al mismo número de canal).

El secuenciador MIDI opera de manera muy similar a como lo hacen los sistemas de audio digital. En general poseen los mismos principios básicos: grabación, edición–procesado y reproducción. Las secuencias pueden ser introducidas al secuenciador mediante un controlador MIDI, paso a paso, desde un archivo, etc. Una vez grabadas es muy fácil retocar y transformar los mensajes8 (denominados “eventos”) para posteriormente reproducirlos cuando se desee.

7 Existen dispositivos independientes que funcionan como secuenciadores. Sin embargo, estos aparatos son auténticos ordenadores de propósito específico, que realizan las funciones “programadas”. 8 Es muy fácil editar eventos MIDI. La transposición, por ejemplo, se puede conseguir simplemente sumando una constante al valor de la notas MIDI.

Tema

09

Page 50: introducción al audio digital v2

50

Controladores

Se conoce como controladores MIDI a todos aquellos instrumentos capaces de generar información MIDI. El teclado (tipo piano) no es más que una interfaz de control que transmite la información MIDI al sintetizador. No existe ninguna razón para limitarse al teclado cuando existen numerosas interfaces posibles. Los controladores habitualmente simulan un instrumento determinado: guitarra, saxofón, flauta, violín, batería, armónicas, acordeones e incluso interfaces para que un cantante pueda gobernar, con su voz, un sintetizador.

Aunque físicamente un controlador MIDI podría tener algún parecido con el instrumento que simula, en realidad es un simulador electrónico que debe ofrecer al músico un comportamiento sensorial similar al instrumento que imita, y convertir toda la gestualidad expresiva que puede volcar el músico sobre el instrumento a secuencias digitales MIDI.

Es importante destacar dos formas de control: por una parte existen los convertidores que, como su nombre indica, convierten la información que procede de un instrumento tradicional en información MIDI, y por otra parte, los controladores MIDI propiamente dichos, que generan directamente la información MIDI y que no pueden tocarse ni están ligados a un sintetizador cualquiera.

Convertidores

Los convertidores introducen un retraso de tiempo necesario para la conversión. Esto puede ser más o menos problemático según el caso. Para la percusión es un poco complejo porque no existe altura que convertir. Las guitarras presentan aún más problemas dada la gran cantidad de información que pueden generar.

Los convertidores tienen la ventaja de adaptarse a los instrumentos existentes (los músicos pueden ajustar los captadores más adecuados a sus instrumentos y gobernar las fuentes sonoras MIDI sin tener que habituarse a un nuevo instrumento). El cantante no tiene elección; necesita un convertidor que, como convierte la información analógica que proviene de un micrófono, puede servir también con una flauta o con cualquier otro instrumento monofónico.

Controladores MIDI

Los controladores MIDI requieren una cierta adaptación por parte del instrumentista. Un saxofón MIDI imita a su contraparte acústica pero no es exactamente igual en todos los puntos. A veces se introducen funciones suplementarias propias del MIDI, lo que refuerza su interés. Ciertos controladores MIDI son instrumentos completamente nuevos. En este caso, es preciso inventar una técnica nueva.

Page 51: introducción al audio digital v2

51

Teclados maestros

Un teclado maestro es un teclado MIDI sin sintetizador incorporado: mudo. Es indispensable conectarlo a una fuente sonora. Estos teclados suelen ser mejores para una interpretación fuerte, incluso regulable, tienen 76 ú 88 notas y ofrecen funciones MIDI especiales suplementarias (por ejemplo, la división del teclado en zonas asignadas a canales MIDI diferentes y la transmisión de mensajes de cambio de programa). Para conseguir la mayor ergonomía existen teclados que ofrecen teclas contrapesadas (idénticas a las reales).

Pianos MIDI

Si se dispone de un piano acústico convencional, es posible adaptarlo para que transmita mensajes MIDI. El teclado transmitirá el número de nota y la velocidad, aunque no la velocidad de desactivación o desvanecimiento de la nota. Se puede transmitir el pedal de sostenido.

Convertidores MIDI para baterías

Baterías electrónicas

Los sensores (pad) de las baterías electrónicas transmiten la información analógica como variaciones de tensión eléctrica fácilmente traducibles a mensajes MIDI. El impulso de cada sensor se convierte en un mensaje de activación de nota. Cada sensor transmite un número de nota diferente asignado por el usuario, eventualmente sobre un determinado canal MIDI. La fuerza con la que se golpea el sensor se interpreta como la velocidad de la nota que se ha tocado.

Baterías acústicas

La conversión de una batería acústica en una batería MIDI se realiza según el mismo principio. La diferencia estriba en que es preciso colocar pequeños captadores sobre cada instrumento. Son estos micrófonos los que suministran la información analógica al convertidor. Esta etapa suplementaria presenta algunos inconvenientes. La interpretación de la velocidad está falta a veces de sutileza. El ajuste de sensibilidad de los captadores puede ser delicado. Tienen tendencia a dispararse accidentalmente si son demasiado sensibles y captan a los vecinos. Como las baterías tienden a resonar, el ajuste demanda un sutil compromiso entre una batería poco sensible a la velocidad, que resulta pesada de tocar, y una, con una sensibilidad tan alta, capaz de dispararse con un estornudo.

Page 52: introducción al audio digital v2

52

Convertidores para instrumentos de viento

Existen convertidores monofónicos que transforman la información analógica que proviene de un micrófono en mensajes MIDI. Esta conversión tiene en cuenta la frecuencia, la amplitud y a veces el contenido armónico de la nota tocada. La frecuencia se convierte en número de nota MIDI, la amplitud en un control MIDI que afecta el volumen y el contenido armónico en un control MIDI que afecta al timbre. Estos convertidores presentan varios defectos. El tiempo de conversión es bastante grande, lo que introduce un retraso perceptible. La conversión no es demasiado fiable; la nota tocada muy rápida o muy débil puede que no sea recibida por el sintetizador MIDI. Por otra parte, ciertos sonidos poseen armónicos (con frecuencia el segundo) cuya amplitud es tan fuerte como la de la fundamental. En este caso el convertidor puede equivocarse y tocar una nota una octava más alta de la que ha recibido. La conversión de notas tocadas por un instrumento de viento es más eficaz que la conversión de la voz. La altura de las notas cantadas está, a veces, mal definida.

Los instrumentos de viento MIDI

Un instrumento de viento MIDI intenta imitar lo más fielmente posible a un instrumento de viento real. Un saxofón MIDI tiene las mismas llaves del saxofón e incluso intenta reproducir las técnicas del saxofonista, como el desplazamiento de la altura por la presión de los dientes sobre la boquilla. Las combinaciones de llaves que no se emplean en un saxofón tradicional, sirven para las funciones MIDI. Ciertas combinaciones envían los mensajes de cambio de programa, otras permiten tocar acordes, otras incluso autorizan la transmisión de ciertos controles MIDI (filtros).

Algunos controladores imitan la trompeta, o incluso a la armónica. El problema principal es crear los timbres adaptados al instrumento. Por otra parte, la acción del instrumento permite dar muchos matices propios de los instrumentos de viento difíciles de crear con un teclado. Estos instrumentos transmiten los controles MIDI como el control de soplo, el volumen, etc.

Page 53: introducción al audio digital v2

53

Convertidores para guitarras

El principio de los convertidores para guitarras es, mediante la colocación de un captador sobre cada cuerda de la guitarra, analizar la frecuencia de vibración de la cuerda. El músico puede aplicar en cualquier momento un vibrato (alteración oscilatoria en frecuencia de la nota) o un desplazamiento de altura (tirando de la palanca) por lo que tal análisis es un problema arduo. Con el transcurso del tiempo las prestaciones de los convertidores MIDI de guitarra han mejorado hasta funcionar de forma perfectamente satisfactoria. El retardo (principal escollo) ha sido reducido hasta mínimos imperceptible (por ejemplo en los convertidores basados en redes neuronales). Los mejores permiten transmitir la información generada por cada cuerda sobre un canal MIDI diferente. Esto facilita ajustar más finamente la respuesta del instrumento MIDI ya que lo que reproduce cada una de las cuerdas puede corresponder a un módulo de síntesis diferente.

Guitarras MIDI

Las guitarras MIDI analizan la posición de los dedos sobre el mástil gracias a captadores fotosensibles o por otros procedimientos similares. El objetivo de las investigaciones actuales es evitar que la utilización de la conversión de la vibración de las cuerdas.

Page 54: introducción al audio digital v2

54

Periféricos MIDI

Existe otro conjunto de dispositivos MIDI muy útiles, que muchas veces solucionan deficiencias de los dispositivos MIDI principales de una configuración, o añaden utilidades nuevas o simplemente mejoran la configuración MIDI instalada. Estos periféricos adicionales están sometidos a una constante evolución, así que, de manera general, se tratará, más que periféricos concretos, la funcionalidad básica de estos periféricos.

Pedal

Los pedales MIDI sirven para hacer el MIDI más utilizable en aplicaciones en directo, aunque también se pueden utilizar para conseguir buenos efectos en aplicaciones de estudio. Entre los usos de los pedales MIDI se encuentran:

Envío de mensaje de desactivación de todas las notas (pánico) que en casos muy sofisticados envían todas las notas de desactivación individuales.

Envío de mensajes de controlador MIDI. La idea básica es proporcionar un control por pedal de alguna función de un instrumento del sistema. De hecho, la mayoría de los instrumentos poseen al menos unas pocas funciones básicas que se pueden controlar a través de mensajes de control MIDI. Las unidades de este tipo normalmente se pueden configurar para que funcionen como pedales de sostenido, o como pedales de volumen, etc.

Envío de mensajes de variación de la altura. Estos dispositivos son una alternativa a la utilización del mando de variación de la altura del instrumento.

Envío de mensajes de cambio de programa. Suele ser muy útil sobre todo para las actuaciones en directo. Un cambio de programa, en definitiva, es equivalente a un cambio de instrumento.

Envío de mensajes de cambio de selección de canción. La planificación de un concierto se puede gobernar bajo control de pedal.

Algunas unidades de pedal MIDI suelen ser muy complejas y pueden tener hasta cuatro pedales; cada uno de ellos programable y capaz de controlar más de una función. Los pedales programables no sólo se utilizan para enviar mensajes de cambio de control o de cambios de control y de altura. Es posible especificar una cadena de valores para enviar cada vez que se active el pedal, y también especificar que valor o rango de valores proporcione la posición del pedal. De esta forma es posible controlar, prácticamente, cualquier función MIDI o varias funciones simultáneamente.

Page 55: introducción al audio digital v2

55

Canalizador

Una gran parte de los periféricos MIDI reciben la señal MIDI, la procesan de alguna forma y después la envían a todo el sistema o a parte. El número de unidades o dispositivos que reciben la señal procesada depende del método de conexión empleado y del lugar exacto donde se inserta el procesador en el sistema.

Existen muchas formas de procesar una secuencia MIDI para realzar una característica u otra. La función de los dispositivos canalizadores es alterar los bytes de cabeceras de los mensajes de canal, de modo que dichos mensajes pueden cambiar a un canal diferente. Sin embargo, este proceso se aplica de una forma muy selectiva para obtener precisamente el efecto deseado.

Algunos canalizadores pueden hacer más cosas que simplemente cambiar canales. Por ejemplo, podrían realizar la división del teclado en partes que proporcionan algunos instrumentos, y que permite tener, por ejemplo, la mitad del teclado operando en un canal MIDI, y la otra mitad operando en un canal MIDI diferente. De hecho, el punto exacto donde se realiza la división puede ser elegido por el usuario (no tiene que ser exactamente la mitad). Tampoco la división del teclado tiene que ser exactamente por dos y en principio se puede dividir el teclado en tantas partes como canales MIDI diferentes haya disponible.

La operación de los canalizadores debe ser muy cuidadosa porque todos los mensajes de canal no admiten este tipo de descomposición del teclado. En el caso de mensajes de pulsación de teclado polifónico, que contienen valores de notas, la unidad puede procesarlo igual que los de activación – desactivación de nota. Sin embargo existen otros mensajes de canal que no contienen valores de notas, y el canalizador no tiene forma de saber a qué canal o canales se deben dirigir.

Armonizador

Un armonizador ordinario procesa la salida de audio de un determinado instrumento, genera tonos que armonicen con la nota de entrada y los mezcla con la señal de entrada. El armonizador MIDI trabaja sobre la señal MIDI y genera mensajes adicionales de activación y desactivación de notas con las notas armónicamente relacionadas. Es perfectamente posible que, con cada nota, se generen varias si se desea (se trata de replicar y escalar). Tampoco hay necesidad de trabajar con desplazamientos fijos, y una unidad inteligente basada en microprocesador puede generar armonías bastante complejas.

Filtros

Un filtro MIDI es un dispositivo que elimina de forma selectiva mensajes MIDI. Una razón para hacer esto es evitar los problemas de saturación MIDI. Un filtro MIDI elimina mensajes pero no recupera aquellos que hayan sido perdidos. La única forma de evitar la saturación MIDI es asegurar que el dispositivo que está generando las señales MIDI nunca produzca una salida sobrecargada.

Page 56: introducción al audio digital v2

56

Los filtros también se utilizan para discriminar la repuesta de los diferentes instrumentos de la red a cierto tipo de mensajes. Algunos filtros admiten configuraciones de exclusión de mensajes (por ejemplo eliminar todos los mensajes excepto los mensajes de sistema) proporcionando así una especial forma de canalización que es útil cuando un instrumento sólo tiene modos omni. Normalmente, una unidad de este tipo responde a mensajes en cualquier canal, haciéndola inútil para su operación en configuraciones y arreglos que impliquen una secuenciación con múltiples instrumentos.

Enrutador

El enrutador es una suerte de mezclador con una cantidad determinada de entradas y salidas y su función es encaminar las secuencias MIDI desde las entradas hacia las salidas programadas. Este periférico es muy útil, sobre todo cuando se desea tener una configuración de la red MIDI programable (en lugar de cambiar las conexiones físicas de los cables; sencillamente se cambia por programa la matriz de conexiones virtuales). La programación de la matriz de conexiones se realiza a través de mensajes de sistema exclusivo (dada la falta de estandarización para este tipo de utilidades).

MIDI a CV

Los sintetizadores analógicos utilizan el mismo sistema básico de activación y desactivación de las notas mediante una señal de control digital denominada puerta (gate) y establecen la altura mediante una segunda señal analógica llamada voltaje de control (CV – Control Voltage). Los conversores MIDI–CV permiten integrar los antiguos sintetizadores analógicos en los sistemas MIDI.

Page 57: introducción al audio digital v2

57

Sincronización

Hay una categoría de periféricos MIDI, que se conocen con el nombre de unidades de sincronización. En general, se pueden dividir en dos grupos: los sincronizadores cinta a MIDI, y las unidades que sirven para sincronizar el MIDI con máquinas de percusión que no posean un interfaz MIDI.

Reloj

Las máquinas de percusión generalmente se sincronizaban entre sí mediante una señal de reloj que consistía en una serie de impulsos eléctricos a intervalos regulares. Con este sistema, como sucede en el MIDI, una unidad proporciona la señal de sincronización y el resto tienen que seguir los pulsos de reloj. A diferencia del MIDI, este sistema no puede situar el secuenciador en un punto particular de la secuencia y empezar desde allí. Al iniciar la señal de reloj se inicia la secuencia, y al eliminar la señal de reloj se para la secuencia. Esta filosofía obliga a inicializar todas las unidades del sistema simultáneamente para situarlas en su punto de comienzo correcto.

Es posible convertir la señal de reloj de pulsos de una máquina de percusión en señales de reloj MIDI de manera tal que un secuenciador MIDI se pueda sincronizar con un instrumento de percusión. Lo más probable es que la máquina de percusión deba sincronizar y mantenerse sincronizada con el secuenciador. Con este propósito se diseñaron y construyeron conversores capaces de convertir en impulsos eléctricos los mensajes de tiempo MIDI generados por el secuenciador. El único problema es que como la base de tiempo no está normalizada, es necesario configurar adecuadamente la unidad de conversión para determinada máquina de percusión.

Algunas unidades utilizaban veinticuatro pulsos por negra (quarter note), lo que se ajusta con los veinticuatro mensajes de reloj que se envían en MIDI por negra; pero también existen otros valores más o menos típicos. No es esencial, aunque sí conveniente, que la frecuencia de los impulsos de reloj de la máquina de percusión coincida con los veinticuatro mensajes reloj MIDI porque en principio la electrónica de estos dispositivos debe garantizar la conversión de una frecuencia de impulsos a otra.

Tema

10

Page 58: introducción al audio digital v2

58

MIDI

La sincronización MIDI emplea un reloj de veinticuatro mensajes por negra. La información es digital y no analógica como el reloj. El estándar MIDI dispone de mensajes sincronizar el arranque y la parada de los secuenciadores (mensajes arranque, parada, continúa) y de mensajes de posición de canción (que cuentan el número de semicorcheas que han transcurrido desde el inicio de un trozo y transmiten esta información al esclavo).

Sincronización FSK

La sincronización FSK (Frecuency Shift Keying – Modulación de frecuencia) permite sincronizar un secuenciador MIDI con un grabador multipista convencional. Es suficiente grabar una señal FSK (sin reducción de ruido) sobre unas pistas de la grabadora y después volverlo a leer para que el secuenciador se sincronice con el grabador multipista. Esta forma de grabación no contiene ningún comando MIDI y no permite comenzar la secuencia en cualquier parte diferente del inicio. De hecho, el FSK es una señal equivalente al reloj pero más fiable que una señal cuadrada de tipo reloj cuando está grabada en una cinta.

PPS

El PPS (Poor People’s SMPTE – SMPTE para pobres) es un código de sincronización especial derivado del FSK que permite enviar los comandos MIDI de punteros de canción, arranque y parada y cambios de tempo al secuenciador. Esta forma de sincronización requiere de un conversor entre la información MIDI procedente del secuenciador y los códigos grabados en la cinta.

SMPTE

El código SMPTE (Society of Motion Picture and Television Engineering) se diseñó originalmente para usar en sistemas audiovisuales, especialmente cine y televisión. Es una referencia temporal absoluta que designa cada emplazamiento sobre una cinta mediante una dirección en horas, minutos, segundos, tramas (fotogramas) y subtramas. El número de subdivisiones de tramas/segundo varía según los países y su uso (en cine, 24 tramas/seg; en vídeo europeo, 25 tramas/seg; en vídeo USA, 30 tramas/seg). El código SMPTE ofrece una referencia absoluta y por lo tanto es independiente del tempo; al contrario de los otros relojes. Los conversores SMPTE a MIDI deben proporcionar igualmente las indicaciones de tempo y traducir la dirección SMPTE en mensajes de posición de canción MIDI para que el secuenciador MIDI pueda recomenzar en sincronismo a partir de cualquier posición.

Page 59: introducción al audio digital v2

59

MTC

La utilización cada vez más corriente del MIDI en la post–producción de vídeo ha favorecido el desarrollo de una sincronización directa MIDI/SMPTE, el MTC. El MTC (MIDI Time Code – Código de Tiempo MIDI) es una forma de SMPTE ligeramente simplificada, adaptada a la velocidad de transmisión MIDI y añadida recientemente a la especificación MIDI. El MTC es más preciso, más rápido y más fiable que la conversión SMPTE/MIDI. El MTC también ofrece una referencia temporal de carácter absoluto, medido en las mismas unidades utilizadas por el SMPTE. Se trata de un código que constituye un instrumento poderoso en lo que respecta a la sincronización de imagen y sonido y, asimismo, al control de mecanismos de audio y vídeo desde un cerebro centralizado.

DTL

El DTL (Direct Time Lock) es una variación del MTC, de Mark of the Unicorn, e incluido entre las opciones de sincronización de algunos secuenciadores populares.

Page 60: introducción al audio digital v2

60

Almacenamiento

Típicamente los sistemas de audio digital emplean el disco duro como medio de almacenamiento, aunque también es frecuente el uso de otros medios como DAT (Digital Audio Tape), MD (Mini Disk), MO (Magneto Óptico), memorias Flash EPROM, etc. Existen tanto o mas formatos como aplicaciones: audio sin comprimir o comprimido, con o sin metadatos, con o sin cabecera, contenedores de audio o secuencias de control, de ambos, propietarios o estándares, para secuenciadores, sintetizadores y así... un largo etcétera.

Existe un compromiso entre la calidad del sonido y la longitud de los archivos que almacenan audio digital. Es posible predecir el tamaño mínimo (algunos formatos introducen cabeceras e información de control complementaria) de los archivos empleando la fórmula siguiente:

t = (B / 8) x C x T x R

Donde:

t - Tamaño del archivo, en bytes

C - Número de canales (1-mono, 2-estéreo)

T - Tiempo de grabación, en segundos

R - Frecuencia de muestreo en Hertz (muestras por segundo)

B – Número de bits

La siguiente tabla muestra una comparación entre el empleo de diversas frecuencias de muestreo y longitudes (en tiempo) de los sonidos a almacenar cuando se utilizan muestras de 16 bits.

1 min 2 3 4 5 11.025 kHz 1.3 Mb 2.5 3.8 5.1 6.3

22.05 2.5 5.1 7.6 10.1 12.7 44.1 5.1 10.1 15.2 20.2 25.3

Los archivos que almacenan secuencias de control, a diferencia de los archivos de audio, son extremadamente pequeños (sólo contienen órdenes para la síntesis); lo cual resulta ideal; desde el punto de vista de comunicaciones (su transmisión gasta un ancho de banda despreciable).

Tema

11

Page 61: introducción al audio digital v2

61

A pesar de estos convenientes ofrece un problema: como el sonido requiere ser sintetizado no garantiza que suene igual al generado en el emisor (depende del sintetizador en el receptor). Esto, por supuesto, no es problema si se utiliza el mismo sintetizador en ambos extremos pero requiere cierta universalización lo cual resulta demasiado pretencioso.

Los sistemas de compresión de audio de la próxima generación exploran estas vías y parte de la siguiente base: primero se extraen estas secuencias de control de síntesis de la señal de audio, a continuación se transmiten o almacenan y, por último, se reproducen, de manera tal, que garantice la reconstrucción del audio original, independientemente del ordenador o plataforma del receptor.

Una línea intermedia mezcla ambos mundos. Envía las secuencias de control y las muestras de audio necesarias que garanticen una reproducción idéntica del sonido. Este tipo de formato es muy frecuente en aplicaciones Trackers (relacionadas más con el entorno de Internet que con el mercado profesional).

Formatos de archivos de Sonidos

VOC: Formato de voz de Creative Labs

Archivos de 8 y 16 bits utilizados por Sound Blaster (VOice Creative) y otras tarjetas de sonido compatibles para PC. Pueden incluir información en estéreo referida a los bucles y a la compresión, aunque lo más probable es que la mayor parte de los ejecutantes se limiten a emplear datos de sonido monofónico.

RIFF: El formato de archivo de intercambio de recursos de Microsoft

Se diseñó como el único formato de archivo para multimedia Windows capaz de incluir bloques (chunks) con formatos de datos diferentes. Incluye audio digital (WAV) y bloques MIDI. Lo original de RIFF (Resource Interchange File Format) es que puede admitir bloques que aún no se han inventado. Es un formato muy genérico y abierto que ha servido de punto de partida de muchos otros.

SOUND: El formato de archivo de recursos de sonido

Es un formato de audio digital compacto (sólo 8 bits por muestra) de Apple. Se utiliza para almacenar sonidos cortos, como el sonido de alarma del altavoz incorporado en el Macintosh y se emplea en aplicaciones cuyos bajos requisitos de sonido.

WAV: El formato de onda de Microsoft

Los archivos de ondas (WAVEform audio format) constituyen el formato de archivo de sonido estándar utilizado en Windows de Microsoft. Este formato representa un subconjunto de la especificación de formato de archivo multimedia RIFF de Microsoft. Puede representar una amplia gama de resoluciones de sonido, niveles de muestreo y compresión, así como otro tipo de información de carácter especial.

Page 62: introducción al audio digital v2

62

La mayor parte de las aplicaciones de Windows esperan que los archivos en mono o en estéreo empleen 8, 16 ó 24 bits, así como una frecuencia de muestreo de 11.025 kHz, 22.05 kHz, 44.1 kHz, 48 kHz, 92 kHz ó 192 kHz.

Una evolución de este formato es el BWAV (Broadcast Wave Format) que permite almacenar metadatos en el mismo archivo. Este formato es el primer formato de grabación utilizado en estaciones de trabajo dedicadas a la industria del cine y la televisión. Permite almacenar archivos de audio multi-pistas con referencias de código de tiempo como el SMPTE (Society of Motion Picture and Television Engineers). El uso de marcas de tiempo (Time Stamp) estándar facilita la sincronización con elementos de imagen independientes.

AIFF: El formato de archivo de intercambio de audio de Apple

El formato AIFF (Audio Interchange File Format) fue desarrollado por Apple para representar diversos tipos de datos multimedia. Es el formato estándar de sonido de las estaciones de trabajo Silicon Graphics. Admite diversas frecuencias de muestreo y tamaños de muestras de hasta 32 bits por muestra. Una característica interesante de este formato es que admite bucles. Este formato de archivo procede de Electronics Arts. Commodore Amiga también utiliza este tipo de formato.

AU: El formato de audio de Sun

A pesar de sus diferentes variantes (incompatibles entre sí), es empleado en las estaciones de trabajo Sun, DEC y NeXT. Este tipo de archivo es muy común en Internet.

TTA: Audio Real

TTA (True Audio) es un formato de audio libre pensado para codificar audio sin pérdidas en tiempo real basado en filtros de pronóstico adaptativos.

FLAC: Formato de compresión de audio sin pérdidas

FLAC (Free Lossless Audio Codec) es un formato de compresión de audio sin pérdidas eficiente para empaquetar datos de audio. FLAC utiliza algoritmos de predicción lineal para convertir las muestras de audio en una serie de números pequeños (conocidos como residuos), que se pueden almacenar eficientemente utilizando la técnica de codificación Golomb-Rice. Este método es particularmente eficaz para codificar bloques de muestras idénticas (como pasajes de silencio). La potencia de esta técnica radica en su habilidad de ser serializada y decodificada rápidamente independientemente del nivel de compresión.

RAW: Los datos de sonido “sin formato”

Raw, que traducido directamente al castellano quiere decir “crudo” es un formato de archivo que sólo contiene datos de sonido (carece de cabecera u otro tipo de información). Para emplearlos es necesario conocer a priori el número de bits de

Page 63: introducción al audio digital v2

63

resolución, la frecuencia de muestreo, el tipo de compresión en caso de que el sonido esté comprimido.

Formato de archivos de Control

CMF: Formato de música de Creative

Este formato (Creative Music File) fue diseñado para trabajar con el chip estándar industrial Yamaha, utilizado para sintetizar música en FM. Incluye un bloque instrumental, que contiene los parámetros para programar con los sonidos instrumentales deseados el sintetizador FM de la tarjeta de sonido y otro musical que contiene las órdenes de ejecución de cada nota e instrumento.

ROLL: El formato de archivos de AdLib

Este formato se diseñó para poder generar música con el chip sintetizador de FM de Yamaha de las tarjetas AdLib y contiene una lista de notas, tiempos y cambios de instrumentos.

MID o MFF: Formato MIDI

Aunque la mayoría de los secuenciadores utilizan su propio formato de archivo MIDI (porque no sólo almacenan en ellos información MIDI, sino también información de configuración, etc.), existe una especificación de archivo MIDI estándar universal que permite intercambiar información de control MIDI entre cualquier aplicación informática MIDI.

El MID o MFF es el soporte de almacenamiento universal del mundo musical MIDI. Existen dos variaciones del MIDI “estándar” en los programas MIDI. El estándar MIDI tipo 1 es la variante más moderna de MIDI; protege fielmente una composición como una partitura multitraza. La versión anterior, el formato tipo 0, está preparada para mantener compatibilidad con los secuenciadores más viejos y admite sólo una traza.

Formato de archivos mixtos

XM: FastTracker

Formato mixto que introduce instrumentos con envolventes de volumen y panorámica. La compresión de las muestras es básica.

IT: Impulse Tracker

Permite que la nota anterior en una pista se desvanezca en el máximo de la próxima nota (proveyendo una polifonía más efectiva). Los instrumentos pueden compartir muestras. Añade algunos efectos como un filtro resonante.Tiene una compresión de las muestras mejor.

Page 64: introducción al audio digital v2

64

MOD: Formato de música de Commodore Amiga

Contienen muestras de audio digitalizadas de instrumentos musicales reales y la secuencia de órdenes de reproducción. Cuando se reproduce un archivo MOD (MODule file format), cada nota se toca tomando la muestra de sonido instrumental para esa nota y reproduciéndola a la frecuencia de muestreo adecuada para conseguir el tono musical adecuado. Generalmente contienen cuatro canales de música y cada canal se dedica a un único sonido instrumental. Pueden contener hasta 31 voces instrumentales (sólo 4 u 8 se reproducen simultáneamente), cada una de las cuales con volumen independiente. También permite la reproducción indefinida de un sonido para conseguir efectos de eco o reverberación. Se pueden asignar efectos especiales a cada nota como el vibrato o el trémolo.

Page 65: introducción al audio digital v2

65

Informática

Son muchas y variadas las características que implementan los diferentes dispositivos y programas disponibles en el mercado para el tratamiento del audio digital. Tales aparatos realizan sus funciones con arquitecturas (hardware, software) propietarias mientras que los aquí llamados programas funcionan en entornos informáticos con sistemas operativos “estándares” (MAC-OS, X-Windows, Windows XP, Linux, etc.). ¿Cuál opción es mejor? La respuesta a esta pregunta depende de lo que se busque: facilidad de uso, capacidad de actualización, portabilidad, coste, y así… un largo etcétera. Desde luego en ambas opciones hay de todo: excelentes, buenos, regulares y malos; como todo en la vida. Los entornos de audio independientes son preferibles por músicos y productores que no están muy familiarizados con las herramientas informáticas. Estos sistemas funcionan como sus predecesores analógicos; el carácter digital es sólo una característica más del equipo en cuestión. Mientras que los entornos informáticos son más adecuados a aquellos que provienen de este mundo o de ninguno; y penetran en él sin prejuicios.

La evolución de las herramientas informáticas en la música ha estado condicionada por la potencia de los procesadores (CPU – Control Process Unit) de los ordenadores. Los algoritmos relacionados con el audio digital requieren de un gran número de operaciones que, en su mayoría, son multiplicaciones y sumas (acumulativas) en un formato numérico de “suficiente” resolución. Sin embargo, no fue hasta la llegada de los Pentium MMX que estas funciones estuvieron disponible en los ordenadores. Cuando la carga computacional que requiere el procesado digital de señal en tiempo real es mayor que la que puede satisfacer un ordenador las funciones se suministran en paquetes completos (hardware/software) y basan todos los cálculos en DSPs especializados. De esta manera disminuye la carga computacional en el procesador principal del ordenador y aumenta considerablemente las prestaciones del sistema en su conjunto. En los inicios, la potencia era tan insuficiente que los programas eran forzados a realizar muchas de estas operaciones en diferido; sobre todo las relacionadas con el audio digital. A los sistemas informáticos especialmente acondicionados para el tratamiento de audio digital se les suele llamar estación de trabajo (DAW – Digital Audio Workstation).

En general, en todo el proceso de creación musical es necesaria información de control que haga posible la ejecución sincronizada de los diferentes instrumentos que intervienen. El músico concibe su idea musical a partir de complejos mecanismos de alto nivel que operan con el material musical que le ha llegado a través del sistema perceptual auditivo, memoria, cultura, etc. En el caso más clásico transcribe estas ideas musicales a un lenguaje de signos abstracto que

Tema

12

Page 66: introducción al audio digital v2

66

los músicos pueden reconocer e interpretar (el pentagrama). Estos signos no son música en si mismos sino una serie de señales que el o los intérpretes traducen a acciones de control sobre sus instrumentos para que se produzca la música que probablemente haya escuchado antes, en su cabeza, el compositor. Cuando interviene más de un instrumento, es necesario otra figura: el director de la orquesta. Su función es precisamente garantizar la sincronización entre todos los músicos para que la música que produzca la orquesta represente, con la mayor fidelidad posible, lo que concibió en su momento el compositor. Cuanto más detallado y descriptivo sea el pentagrama proporcionado por el compositor, mayor es la información de control y por lo tanto debería esperarse que la ejecución fuese más “precisa”. Sin embargo, cuanto mayor sea el número de signos empleados en la partitura mayor será la complejidad e ininteligibilidad.

Básicamente, el ejemplo anterior evidencia la existencia de, además del propio sonido que se genera, la información de control necesaria para su creación. La propia evolución de la música y el surgimiento de los instrumentos musicales electrónicos ha hecho necesario buscar nuevos sistemas de signos capaces de transmitir los nuevos matices y controles en la búsqueda de la música “exacta” que “escucha” en su cabeza el compositor y ha difuminado la frontera compositor-intérprete. En muchos casos el propio compositor elabora la música hasta su completa satisfacción y la ofrece en un formato repetible, idénticamente repetible. Tal evolución ha permitido el desarrollo de herramientas informáticas para ayudar al artista en todo el proceso, desde la creación, hasta la grabación definitiva para su difusión y ha acercado al gran público la posibilidad de “crear” música sin ser un experto en teoría musical.

Hace unos años construir un estudio para la creación musical requería de una fuerte inversión en hardware. La mayoría de los procesadores y sintetizadores se comercializaban como dispositivos conectables a través de entradas y salidas de audio y satisfacían objetivos muy específicos. Por ejemplo, para disponer de diversos modelos de síntesis era necesario tener teclados sintetizadores o módulos (máquinas de síntesis sin teclas); cada uno con la implementación de una técnica de síntesis determinada. Por ejemplo el Yamaha DX7 para síntesis FM, la serie CZ de Casio para síntesis por distorsión de fase, Kurzweil y Akai para síntesis por tabla de ondas, Kawai para síntesis aditiva y un largo etcétera costoso, difícil de organizar y cablear, etc. Para mezclar las salidas de todos los procesadores y sintetizadores se empleaban grandes consolas analógicas fuera del alcance de los estudios modestos.

Con la introducción del audio digital se introdujo un dispositivo más: el convertidor analógico/digital, digital/analógico; ya sea como una tarjeta de ordenador o como un dispositivo externo conectado al ordenador mediante algún tipo de interfaz: propietaria o estándar (como el SCSI). La función de este dispositivo es clara: la transformación de las señales de audio del dominio analógico al digital (en el proceso de grabación) y viceversa (en el proceso de reproducción).

Page 67: introducción al audio digital v2

67

La siguiente figura “intenta” ilustrar los procesos involucrados en la creación musical, desde su concepción en la cabeza del compositor hasta la producción del sonido.

Composición

Secuenciación

Síntesis

Efectos

Edición

Page 68: introducción al audio digital v2

68

El desarrollo de la industria informática, el incremento exponencial de la potencia de cálculo de los ordenadores, el desarrollo de nuevas interfases de comunicación (como el USB y el Firewire), de nuevos mecanismos software de integración (como los plugins) ha permitido emular y sustituir todos esos dispositivos hardware a software. En resumen, un ordenador, un convertidor adecuado (que en muchos casos lo incluye el ordenador) y unos altavoces o audífonos, más una buena suite de aplicaciones software, es todo lo que se necesita para crear y desarrollar música “profesionalmente”. Probablemente las cosas cambien todavía más a corto plazo. Las interfases series de alta velocidad, desarrolladas para la industria informática (como el USB o Firewire que necesita una conexión por cable o el WiFi inalámbrico), están siendo adoptadas por los fabricantes de instrumentos musicales. Ya existen guitarras, mesas de mezcla, procesadores de efectos, pianos, teclados, etc. con estas interfases lo que permite enchufarlos directamente al sistema si necesidad de un dispositivo de conversión. En resumen, la necesidad de construir y utilizar estos dispositivos cada vez está menos justificada. Sólo hay un detalle por el que se siguen y seguirán fabricando: no se pueden copiar o “piratear”.

Composición

Es en el proceso de composición donde se generan las ideas abstractas de alto nivel que se transformarán, al final, en música. Los músicos y compositores académicos son capaces de representar mediante algún sistema de signos abstractos, como la notación musical pentagramada, sus ideas musicales. Sin embargo, un aficionado necesita otro tipo de recursos más intuitivos para expresar tales ideas. En general este proceso se puede dividir en dos grandes grupos según cómo se genera la música: manual o automática.

La forma “manual” de expresar una idea musical es aquella donde interviene el compositor y viene a ser la manera tradicional en que el ser humano ha hecho y hace música. En la forma “automática”, sin embargo, es el propio ordenador el que hace de compositor. Este tipo de composición algorítmica genera ideas musicales según algún tipo de descripción matemática.

Según Pierre Schafer: música es todo lo que se repite. Esta frase revela el carácter repetitivo y estructurado de la música. Cualquier algoritmo matemático capaz de generar secuencias con cierta frecuencia es, en principio, candidato a compositor. El problema es conseguir que tales secuencias sean creíbles o “aceptables” a los mortales.

La enorme potencia computacional de los ordenadores hoy día permite que este proceso de composición genere sonido directamente. Sin embargo la salida de este proceso es generalmente información de control que servirá para generar la música a posteriori.

En la música occidental la información de control que se genera en este proceso está relacionada con la nota y, toda la música, se construye a partir de este elemento básico. Una nota contiene información de las propiedades físicas del sonido: Intensidad, altura, duración, timbre, etc. El sistema tradicional musical

Page 69: introducción al audio digital v2

69

occidental divide cada octava en 12 semitonos o notas y limita su duración a valores relativos de tiempo binarios y/ó ternarios.

Notación

Los programas de notación permiten introducir las ideas musicales según la Notación Musical Convencional (CMN). En este sentido sirven de ayuda a la “escritura” musical y generan, además de la información de control necesaria, versiones impresas de calidad profesional. Funcionan como un editor de texto: permiten cortar, pegar, mover, escalar en frecuencia (transponer) o en el tiempo. La siguiente imagen es una captura del editor Finale.

Aunque la entrada habitual de estos programas es el teclado y el ratón del ordenador también es posible introducir las notas desde algún instrumento o controlador que genere información de control (en tiempo real o paso a paso) e inclusive desde el propio audio (como puede ser tocar la flauta frente al micrófono del ordenador) o desde un escáner (lo que permite importar partituras desde papel).

Características técnicas deseables:

• Introducción de notas en tiempo real vía MIDI, mediante ratón o escaneado de partitura impresa (módulo de reconocimiento de partituras). Transformación de audio en notación musical.

• Uso de cualquier valor de nota (desde una redonda doble hasta una semigarrapatea), manejo de un número prácticamente ilimitado de pentagramas y compases, definición de varias capas por pentagrama, con voces independientes por capa.

• Definición de claves y compases flexible.

Page 70: introducción al audio digital v2

70

• Introducción de letras mediante importación de archivo de texto o directa, con alineación automática y separación de sílabas.

• Acordes y tabuladores para guitarra.

• Completo conjunto de herramientas de edición: insertar, copiar, pegar, eliminar notas, inserción de símbolos de dinámica, articulaciones y marcas, cuantización, símbolos de repetición, transposición en modo cromático, diatónico, inarmónico o modal, crescendos y diminuendos, ligaduras...

• Función de auto-orquestación.

• Importación de gráficos (en formato TIFF, EPS, PICT, WMF, etc.).

• Grabación y reproducción a través de MIDI.

• Máxima calidad de impresión PostScript y no-Postcript. Fuentes de notación universal (Maestro, Maestro Wide, Engraver, Petrucci), de guitarra (Seville) y de percusión (Tamburo).

• Abrir y guardar ficheros en formato Standard MIDI File

• Importación entre programas de edición de partituras (Finale, PrintMusic, Allegro), así como archivos exportados desde programas de reconocimiento óptico de partituras (Midiscan y SmartScore, de Musitek).

• Disponibilidad para diferentes sistemas operativos (Windows, Mac OS, etc.). Intercambio de archivos entre distintas plataformas.

• Inclusión de numerosos plugins.

• Servicio de publicación de partituras en Internet

Generación Algorítmica

Los programas de generación algorítmica permiten generar música a partir de una descripción matemática. Tal descripción se puede introducir o bien mediante algún metalenguaje o a través de elementos gráficos. La información de control que generan puede ser utilizable directamente o después de algún tipo de edición o retoque o inclusive sólo como una fuente de inspiración.

Las posibilidades de generar música automáticamente son infinitas. El principio básico subyacente es que muchos procesos de composición son traducibles a programas de ordenador; lo cual, con una pequeña dosis de aleatoriedad, permitiría generar secuencias de notas, armonías y formas, como lo haría un compositor. Los resultados no son tales. Los procesos de composición y, más general aún, del pensamiento son aún investigados y desconocidos. Sin embargo, la posibilidad de probar formalizaciones musicales (aquellas que se pueden expresar mediante normas) puede ayudar al compositor a estimular esa otra parte de la composición relacionada con la intuición, emoción, etc.

Page 71: introducción al audio digital v2

71

La música es un arte que transcurre en el tiempo y está íntimamente relacionado con dos procesos de alto nivel: memoria y predicción. Una música irrepetible es imposible de recordar y, por lo tanto, de seguir y predecir. Es por ello que, a diferentes escalas de tiempo, la música se construye sobre la base de estructuras de repetición. Estadísticamente esto significa que las propiedades básicas de la nota (intensidad, valor, duración, etc.) mantienen ciertas relaciones entre sí, entre el pasado y el futuro; cierta frecuencia.

Suponga que se realiza un estudio estadístico de una obra; contando la frecuencia de repetición, por ejemplo, de grupos de notas y ritmo. Primero con cada nota, luego por pares de notas, tríos… y así sucesivamente elevando el orden hasta un valor considerable. Si se tabulan todos estos valores de frecuencia, es posible generar notas que sigan este comportamiento utilizándolos como si se trataran de tablas de transición. Se puede comprobar que, en la medida en que aumente el orden de la experimentación, aumenta la similitud de estilo con la obra analizada: es posible generar música según cierto estilo.

Otro enfoque estadístico consiste en establecer reglas a partir del análisis formal de una obra (o conjunto de obras) y obtener música filtrando la generación aleatoria de notas con las reglas extraídas del estilo. El orden del análisis determina la memoria. Si el orden es muy alto, las reglas rechazan todos los valores y no se obtiene ninguna melodía; si por el contrario, es muy bajo, no se parece al estilo; fallan las órdenes extremos. La imagen anterior muestra una captura de Koan SSeyo Pro.

Ejemplos de métodos algorítmicos de composición:

• Probabilidades y Procesos Estocásticos (Cadenas de Harkov).

• Geometría Fractal.

Page 72: introducción al audio digital v2

72

• Teoría del Caos, Sistemas Dinámicos No Lineales.

• Ruido 1/f.

• Autómatas Celulares.

• Algoritmos Genéticos.

• Teoría de Juegos.

• Inteligencia Artificial.

• Redes Neuronales.

Este proceso también se puede utilizar, a otra escala, para generar sonido en el proceso de síntesis.

Secuenciación

El proceso de secuenciación es probablemente el más importante y usado para generar música por ordenador. La función del secuenciador ha ido variando a lo largo del tiempo pero, a grandes rasgos, es el elemento que almacena las secuencias musicales y las reproduce sincronizadamente mediante procesos básicos: grabación, edición - procesado, reproducción. En el inicio tales secuencias estaban limitadas a señales de control sobre la síntesis (tal como la que genera el proceso de composición), dada la poca potencia de los ordenadores. Las secuencias eran introducidas al secuenciador mediante un teclado o controlador que generaba secuencias de control, paso a paso (nota a nota) mediante algún editor de secuencia, importadas desde un archivo, etc. Una vez grabadas, se podían retocar con numerosas herramientas de edición o aplicarle transformaciones o efectos y archivarlas para reproducirlas cuando se desee. Hoy día son potentes sistemas de grabación multipista digital que combina esta información de control con máquinas de síntesis, sonido, procesos, etc.

El secuenciador estructura las líneas de los instrumentos en pistas (al estilo de las multipistas analógicas). Las pistas pueden ser de audio o de información de control de síntesis (por ejemplo MIDI) que será dirigida a un sintetizador (software o hardware). La mayoría de los secuenciadores modernos permiten mezclar o modificar las pistas con operaciones sencillas del tipo “Cortar, Copiar y Pegar” o “Arrastrar y Soltar”. Antiguamente, todos los procesos involucrados en la creación del audio eran cerrados y no se comunicaban entre sí. En 1983 surgió el primer estándar “universal” para permitir la comunicación entre equipos de diferentes fabricantes: el MIDI. Por su importancia y vigencia se le dedica especial atención en este libro. Con el software paso lo mismo hasta la aparición de los “plugins”. Básicamente los plugins son pequeños programas que permiten la integración de aplicaciones de terceros y con ello la posibilidad de agregar nuevos procesadores y sintetizadores sin reinstalar el sistema.

Page 73: introducción al audio digital v2

73

Hoy día, tal integración está perfectamente conseguida a ambos niveles: hardware y software; e inclusive, la canalización de información de control y de audio entre cualquier aplicación. Tales herramientas permiten a los secuenciadores (como aplicación anfitrión) integrar procesadores de audio y MIDI y sintetizadores (a los que se puede redirigir cualquier flujo de control de síntesis).

La información de control de síntesis, tal como el MIDI, se puede editar como eventos (modificando las propiedades de cada nota independientemente), en notación musical, como pianola (imitando la perforación de datos musicales en un rollo) o como una mesa de mezclas desde donde poder controlar los niveles, envíos a efectos, panorámica, etc.

La siguiente imagen es una captura del secuenciador de Cakewalk: Sonar.

Una de las características más importante de los secuenciadores es la automatización o posibilidad de cambiar, dinámicamente, cualquier parámetro de control sobre una pista (ya sea de un efecto, nivel, etc.) e inclusive la capacidad de enlazar esta función con mesas reales o controlad ores que imitan su funcionamiento. De esta manera, por ejemplo, se puede sustituir la interacción con el programa mediante el teclado y ratón por controles deslizantes con los que probablemente el músico o técnico esté más habituado e identificado. Hoy es posible conseguir mesas de control USB o Firewire que simulan la ergonomía de una mesa real mientras que controla una mesa virtual en el secuenciador.

Los secuenciadores, en una guerra de mercado extraordinaria, incorporan cada vez más funciones como la posibilidad de afinación automática, extracción del tiempo directamente del audio e, inclusive, la posibilidad de corregir la posición de las notas identificadas directamente en la pista de audio. Resumiendo, se puede decir que la posibilidad de segmentar y desagregar el audio en notas permite generar la información de control necesaria para controlarlo, automatizarlo e inclusive redirigirla hacia cualquier máquina de síntesis.

Page 74: introducción al audio digital v2

74

Transformaciones

Existen diferentes transformaciones aplicables a las secuencias de audio o de control agrupables funcionalmente en diversos conjuntos: transformaciones de altura (tono), intensidad, duración, tiempo, tempo, etc. Las operaciones habituales son las mismas: desplazamiento, escalado, normalización, cuantización, humanización.

Altura

Desplazamiento

La transposición de la altura es un tipo de desplazamiento que transpone hacia arriba o hacia abajo la altura de una nota. Cambio de la escala musical en octavas o semitonos. Muy útil cuando se pasa una pista de un instrumento a otro con diferente escala, para armonizar, etc.

Cada semitono normalmente se divide en 100 unidades denomiadas “cents”. Los algoritmos de afinación pueden corregir la frecuencia en un fragmento de audio desde unos pocos cents hasta varios semitonos o tonos. A este tipo de desplazamiento se le suele encontrar como afinación.

Aunque la transformación de la altura es aplicable por igual a secuencias de control o de audio, los algoritmos son bien diferentes. En el primer caso, por ejemplo, subir o bajar la altura probablemente consiste en sumar un número entero a un parámetro que define la altura de la nota. Sin embargo, en el caso del audio, el procedimiento es mucho más complejo. Todos sabemos que si ponemos un vinilo, o una cinta, a girar a mayor velocidad que la adecuada (48 rpm, en lugar de 33 rpm, por ejemplo) se oirá más agudo y, por supuesto, en menor tiempo. Los algoritmos de corrección de la altura, sin embargo, deben permitir la preservación del tiempo de duración de la secuencia.

Intensidad

Las transformaciones de intensidad son útiles para igualar la dinámica de una secuencia, crear crescendos y decrescendos o diminuendos (subida o caída progresiva de la intensidad), desvanecimientos o subidas graduales de notas, etc. Básicamente permiten control el volumen o dinámica de la pieza musical.

Normalización

Establece un valor de intensidad específico a todas las notas seleccionadas. En secuencias de control consiste en establecer un valor específico en el parámetro de la nota que regula su intensidad. En una secuencia de audio la normalización establece como valor máximo la intensidad que se quiera y escala los cambios de amplitud según corresponda.

Page 75: introducción al audio digital v2

75

Desplazamiento

Aumenta o disminuye la intensidad de las notas seleccionadas en el rango dado por el valor de desplazamiento. Esta transformación preserva la dinámica original, sólo ajusta el volumen general y se puede ver como un control de volumen.

Escalado

Aumenta o disminuye la intensidad de las notas seleccionadas en el porcentaje dado por el valor de escala. Es una variante de la transformación de desplazamiento.

Humanización

La transformación de humanización aleatoriza la intensidad de las notas seleccionadas, para hacer que el pasaje suene más natural. Esta transformación suele ser muy pequeña. Generalmente no se aplica sobre audio sino sobre secuencias de control generadas a un nivel de intensidad específico. Por ejemplo, cuando la secuencia proviene de un programa de notación o han sido introducidas desde un controlador antiguo sin sensibilidad a la presión de las teclas. Esta transformación permite seguir un comportamiento más humano.

Crescendo

Ajusta la intensidad de las notas seleccionadas entre los valores inicial y final de velocidad del crescendo. Aunque esta transformación en muchos secuenciadores es lineal, algunos más sofisticados permiten seleccionar entre diversas funciones de alteración de la velocidad (exponenciales, logarítmicas, cuadráticas, etc.) o definidas arbitrariamente por el usuario mediante puntos de control sobre una línea de control de dinámica.

Duración

La duración de cualquier nota suele ser expresada por el código Barra:Beat:Clic. El valor de Clic corresponde a una fracción de la negra (cuarto); típicamente 1/480; Beat a la posición temporal de una negra y Barra cuenta el número del compás. El intervalo de tiempo real de una nota depende del metro y el tempo de la pieza musical. El primero define cuantas figuras contiene un compás (y de que valor) y el segundo la frecuencia de una figura. Por ejemplo: 4/4 significa que en el compás entran 4 figuras de valor 4 (negra) y

q = 120 significa 120 negras o beats por minuto (BPM).

Las transformaciones de la duración de un grupo de notas sirven para simular diversos tipos de articulación musical. Nuevamente los mecanismos de transformación de la duración dependen de la señal. Una nota en una secuencia de control normalmente corresponde a dos mensajes. Uno cuando empieza y otro cuando termina. Observe que se utiliza cuando y no donde; esto refleja el carácter relativo y la dependencia del tempo de las notas. Cualquier alteración de la duración consiste en mover de posición tales eventos. Sin embargo alterar

Page 76: introducción al audio digital v2

76

la duración de una secuencia de audio sin modificar su altura es un proceso mucho más delicado que consiste en comprimir o estirar “inteligentemente” la secuencia para evitar la alteración de la altura.

Desplazamiento

Aumenta o disminuye la duración de todas las notas seleccionadas por un valor de desplazamiento.

Escalado

Aumenta o disminuye la duración de todas las notas seleccionadas por un porcentaje o factor de escala.

Humanización

La transformación de humanización de la duración de las notas permite ajustar la duración de las notas seleccionadas aleatoriamente e intenta simular la manera en que la produce un músico.

Cuantización

Establece la duración de las notas a los valores más próximos múltiplos del intervalo seleccionado. Por ejemplo, si se elige la negra como intervalo, cada nota será convertida a negra, blanca, redonda, etc. siempre que el valor esté próximo a su duración original. Típicamente se puede controlar la intensidad del efecto de cuantización.

Tiempo

Las transformaciones de tiempo afectan el ritmo de la canción cambiando los tiempos de ataque de las notas (tiempo donde se inicia la nota y que en una secuencia de control se suele denominar tiempo de activación de la nota).

Desplazamiento

Adelanta o retrasa los tiempos de ataque de las notas seleccionadas en un valor de desplazamiento específico.

Humanización

Añade una serie de desplazamientos de tiempo aleatorios al tiempo de ataque de las notas seleccionadas. Esta transformación provoca que los pasajes parezcan más naturales.

Cuantización

La transformación de cuantización de los tiempos de ataque permite ajustar los tiempos de ataque de las notas seleccionadas a sólo un conjunto de puntos posibles en el compás. Este efecto es muy poderoso y a menudo permite controlar diversos parámetros como: valor de cuantización expresado en duración de la nota musical (cuarto, 64 ésimo, etc.), intensidad o grado de

Page 77: introducción al audio digital v2

77

control de cuantización, swing o sensibilidad que permite controlar la selección de las notas a cuantizar, etc.

Esta transformación ha sido exclusiva a las secuencias de control casi hasta hoy. Afortunadamente ya es posible descomponer una secuencia monofónica de audio en notas y la manipulación de todos sus parámetros individualmente. En un futuro quizá más próximo que lejano se podrá hacer lo mismo con material polifónico. Esta transformación es muy útil para tratar el rubato (acelerar o desacelerar ligeramente el tempo de una pieza a discreción del solista) y la generación de patrones (grooves).

Tempo

Escala

La transformación de ajuste del tempo escala los tempos de manera tal que el pasaje seleccionado ocupe la cantidad de tiempo deseada. Por ejemplo, si se tiene una pieza musical de 50 segundos y se desea que demore 60 segundos.

Accelerando

La transformación de accelerando o ritardando permite modificar el tempo en cualquier dirección (más rápido o más lento) un período de tiempo dado dentro de un rango seleccionado.

Características generales de un secuenciador:

• Herramientas para la grabación, edición, composición y navegación que optimizan el flujo de trabajo.

• Visualización de capas de pistas, enmudecer /aislar clip, monitorizar selección, función nudge personalizable, ediciones multi-clip slip, roll-outs, y fundidos.

• Construcción de Loops incluyendo envolvente de control, ganancia, tono y panorámica para cada slice.

• Soporte Surround multi-formato con mezcla y edición (5.1, 7.1, LCRS, etc). Uso fácil de efectos estéreo en entornos surround (SurroundBridge™): Surround Reverb (e.g., Lexicon® Pantheon™), Surround Compressor (Sonitus).

• Pista de vídeo con soporte (QuickTime, Windows Media Vídeo, AVI, MPEG. etc.).

• Sintetizadores de alta calidad software (e.g., GM TTS-1 DXi multi-tímbrico GM2 Roland).

• Balísticas de los medidores configurables (RMS, Picos, etc.).

Page 78: introducción al audio digital v2

78

• Gestor de proyectos y loops, organización de múltiples pistas en una única carpeta, en las que se pueda aplicar simultáneamente mute, solo, grabación y funciones de archivado e interpretación.

• Importación de audio multi-canal en una carpeta de pistas. Gestión de grabaciones con múltiples micrófonos (baterías, coros, piano, orquestra, guitarras, etc…).

• Pistas con múltiples tomas con audio y MIDI en múltiples capas de una única pista; posibilidad de monitorizar sólo el contenido seleccionado en el proyecto; enmudecer rápidamente o asilar o tomas o secciones de tomas no deseadas o deseadas empleando las funciones “Clip Muting” y “Partial Clip Muting”, fusionar elementos usando herramienta de tipo “auto-crop” con opción de crossfade y modo de grabación Auto Punch no destructivo.

• Construcción de loops con capacidad de composición con control de la envolvente de los slices, ganancia, tono, panorama y las funciones “slice Preview” y “auto-loop”.

• Renderización (congelación) de pistas, efectos y sintetizadores para liberar recursos del ordenador (CPU y memoria). Posibilidad de mover y editar datos congelados, incluso conversión de datos congelados a groove clips.

• Edición de clips simultáneos: nudge, roll out groove clips, slip edit, y añadir o editar fundidos.

Síntesis

La síntesis es el proceso que permite generar sonidos musicalmente aceptables. Es difícil argumentar cuál sonido tiene interés musical y por qué. De la orquesta la música hereda tres tipos fundamentales de familias de instrumentos: viento, cuerda y percusión. Sin embargo la incorporación de sonidos producidos por fuentes extramusicales (ajenas a los instrumentos musicales tradicionales) es un hecho ampliamente utilizado y reconocido en la música. El desarrollo de la electrónica incorporó un universo nuevo de sonidos cuyas propiedades se podían controlar desde botones. Con la llegada de los ordenadores, la posibilidad de generar cualquier forma de onda expande el universo sonoro sin límites.

Existen probablemente dos enfoques bien diferenciados en la síntesis. Uno clásico donde se simulan virtualmente los instrumentos tradicionales de la orquesta (e inclusive instrumentos que llegan de la música popular) y otro que permite generar sonidos con cualidades que le hacen utilizables en la música generados mediante algoritmos matemáticos que, en principio, no están directamente relacionados con la música en si.

Los sintetizadores son los encargados de generar sonido a partir de secuencias de control de síntesis. Hacen la función del instrumento mientras la secuencia de

Page 79: introducción al audio digital v2

79

control ejerce de músico. El músico interactúa con movimientos precisos sobre la mecánica del instrumento y en consecuencia produce sonido. Virtualmente el proceso es idéntico, la secuencia de control porta toda la información necesaria para generar determinado sonido.

La potencia de los ordenadores ha hecho posible la aparición de un amplísimo surtido de sintetizadores virtuales que se integrar en forma de plugin dentro de un secuenciador o funcionan independientemente o ambos inclusive.

Aunque la interfaz es muy variada en general existe una tendencia a la emulación de aparatos o instrumentos físicos para facilitar la labor de control al músico. La información de control le puede llegar de diversas maneras: en tiempo real (con la posibilidad de automatización), paso a paso, mediante un editor, desde un controlador externo, etc.

Page 80: introducción al audio digital v2

80

La imagen muestra la interfaz que ofrece Reason: una aplicación que combina diferentes métodos de síntesis (tabla de ondas, substractiva, granular, etc.) con un amplio surtido de efectos (reverberación, dinámica, delay, phaser, vocoder, etc.) y un potente secuenciador con potentes funciones de automatización y gran facilidad de uso. Este tipo de entorno funciona como una aplicación independiente a la vez que permite (mediante una aplicación de comunicación entre aplicaciones o bridge) responder a secuencias de control de síntesis estándares desde cualquier secuenciador anfitrión. En la siguiente página se muestra la interfaz trasera del rack de sintetizadores; los cables se pueden conectar y desconectar con manipulaciones secillas de ratón tipo pinchar-arrastrar-soltar). Por último se muestra una vista del secuenciador. Las notas se pueden agrupar formando secuencias fáciles de copiar y pegar.

Page 81: introducción al audio digital v2

81

En general, para cualquier aplicación de síntesis, el número de sintetizadores a utilizar, y la latencia, depende de la potencia del ordenador. Otro aspecto a destacar es el uso de secuencias o patrones pregrabados e incluso la posibilidad de convertir a patrón cualquier fragmento de audio. A estos fragmentos se les identifica la posición temporal de las notas y mediante algoritmos de compresión/expansión temporal se ajusta automáticamente al tempo de la composición. Este tipo de herramienta permite esbozar con rapidez una idea musical, crear variaciones a partir de estos patrones y construir música como si de un juego LEGO (bloques interconectables) se tratase.

La siguiente imagen corresponde a otro entorno de síntesis: Void. La filosofía aquí empleada es muy diferente. El programa suministra bloques básicos de generación y procesado de señales (como si de módulos hardware se tratase) y permite la conexión virtual entre ellos; de manera tal que el músico o desarrollador de instrumentos pueda construir, con estas pequeñas unidades, cualquier sistema de síntesis. Este tipo de entorno simula los primeros paneles electrónicos gracias a los cuales surgió la música electrónica analógica. En realidad oculta potentes algoritmos de síntesis bajo una interfaz de usuario en forma de bloques interconectables tipo LEGO para facilitar el proceso de creación de instrumentos.

Page 82: introducción al audio digital v2

82

Otra versión más compleja para los músicos pero mucho más potente y flexible está formada por entornos que permiten definir y programar cualquier algoritmo de síntesis como si de un lenguaje de ordenador se tratase. CSound es un ejemplo de este tipo de entorno. Con una sintaxis similar (aunque mucho más sencilla) a la de C es posible “programar” algorítmicamente cualquier tipo de síntesis. Además de definir los “instrumentos”, es necesario definir las notas y todos los parámetros controlables a lo largo del tiempo, en otro archivo tipo “orquesta”. Por último es necesaria la máquina virtual que genera el sonido a partir de ambas especificaciones. Aquí el primer archivo define cada instrumento, el segundo las acciones de control sobre él o los instrumentos y por último la máquina virtual de síntesis hace posible el fenómeno de generación. Además de CSound (que es gratis y de libre distribución), existen muchos esfuerzos en este sentido (desde entornos con una interfaz gráfica amigable o

Page 83: introducción al audio digital v2

83

inclusive simplemente de texto). Algunos ejemplos representativos son MAX/MSP, CLisp, CLM (Common Lisp Music), CMIX, etc.

Page 84: introducción al audio digital v2

84

Efectos

Los efectos son procesos que actúan sobre la señal de audio o control y permiten modificar sus características, ya sea en tiempo o en frecuencia. El eco por ejemplo que consiste en realizar copias amortiguadas de una nota se puede conseguir repitiendo la orden al sintetizador de generar el sonido correspondiente a una nota, disminuyendo gradualmente su intensidad o procesando el audio correspondiente a la nota directamente.

Los efectos son procesadores de la señal útiles técnicamente o estéticamente. La primera función, por ejemplo, está relacionada a los procesos de mezcla, edición, postproducción, etc. y debe garantizar determinada “calidad” del audio. Por ejemplo el ajuste de nivel de cada instrumento dentro de la mezcla, la colocación en el estéreo, la corrección de la afinación de determinado pasaje en la voz, la supresión de ruido en una pista de audio contaminada, etc.

La segunda, sin embargo, se puede considerar una extensión al proceso de síntesis que permite “personalizar” un sonido según antoje. Los guitarristas, por ejemplo, consiguen un sonido “particular” no sólo con el audio que sale de su instrumento. El amplificador es casi una extensión de la propia guitarra que determina cualitativamente el sonido y lo habitual es conectar una extensa “pedalera” con la que interactúa con la misma dinámica que con el propio instrumento. Así, cambiando la configuración de ambos se puede conseguir

Page 85: introducción al audio digital v2

85

desde un sonido claro y melódico, a uno agresivo y sostenido o simplemente la posibilidad de variarlo a voluntad.

Cuando los procesadores no eran suficientemente rápidos y los programas de efectos no se comunicaban con otros programas solían realizar sus operaciones en diferido (consumiendo todo el tiempo que requerían y obligando al músico a esperar para escuchar el resultado final).

Hoy día, la mayoría de estos procesadores se comercializan en forma de plugins (programas que conectan dinámicamente con algún programa anfitrión) y funcionan en tiempo real con una latencia apenas perceptible (como el GuitarRig cuya interfaz se muestra en la imagen anterior y desde la cual se puede observar la línea de simulación que también sigue Reason).

Existen aplicaciones que agrupan diversos procesadores de efectos funcionalmente. Por ejemplo: en post-producción son muy importantes los procesadores de dinámica multibanda, ecualización paragráfica, excitador armónico, reverberación y dither. La siguiente imagen muestra la interfaz de Ozone, de IZotope, un plugin para masterización.

Los efectos también se siguen implementando en forma de dispositivos hardware. Inclusive es posible encontrar el mismo efecto en ambos mundos. ¿Cuál es mejor? La respuesta a esta pregunta es sencilla. Aún hoy, e increíblemente, la mayoría de procesadores de efectos hardware se interconectan vía analógica. Esto implica una doble conversión por cada efecto (analógico-digital y digital-analógico) con la correspondiente acumulación de errores y distorsión a causa de la cuantificación.

Page 86: introducción al audio digital v2

86

Es difícil imaginar que el fabricante que ofrece el mismo efecto en hardware y software emplee algoritmos diferentes en cada caso. En última instancia, es precisamente en entornos propietarios pequeños donde escasean los recursos (por ejemplo los típicos pedales de guitarra), a diferencia de un plugin cuyos recursos dependen sólo de los disponibles en el ordenador (donde a su vez el coste en memoria y velocidad de procesado cae casi exponencialmente).

Page 87: introducción al audio digital v2

87

La imagen anterior muestra un ejemplo del amplio surtido de pedales BOSS y la siguiente su suite de procesadores de efectos integrados para bajo y guitarra respectivamente.

La mayoría de los secuenciadores software del mercado ofrecen una amplia gama de efectos, al igual que los programas sintetizadores. El uso de uno u otro depende de las necesidades del músico o ingeniero. Existe cierta tendencia a los procesadores convolutivos. La convolución es una técnica de procesado de señal que permite “pasar” una señal a través de un sistema. Para identificar adecuadamente estos sistemas son necesarios filtros muy largos cuya convolución con la señal de entrada producía una latencia inaceptable. Sin embargo, el perfeccionamiento de las técnicas de convolución particionadas en el dominio de la frecuencia, solucionan este problema “sin retardo” o latencia. Muchos productores y músicos capturan la respuesta al impulso de sus antiguos procesadores de efectos analógicos para utilizarlos en el dominio digital mediante la técnica de convolución. Esto permite “rescatar” la cualidad de estos procesadores antiguos con las técnicas más avanzadas.

Page 88: introducción al audio digital v2

88

Edición

El proceso de edición permite modificar, en diferido, una secuencia de audio digital. Si el audio fuese texto, el editor correspondería al procesador de texto.

La edición de señales de control permite la modificación de cualquier parámetro de la nota, inserción de nuevas notas, transformaciones de escala, duración, etc. y, desde los inicios, han sido integradas en los secuenciadores. Así que editar, en este contexto, es un proceso exclusivo al audio digital.

Los editores permiten grabar audio a diferente resolución y frecuencia de muestreo. La mayoría de los editores de audio (gratuitos o comerciales) admiten resoluciones de 8, 16 y 24 bits y frecuencias de muestreo de 2 kHz a 192 kHz y pueden operar, según el bus de datos del procesador, en coma flotante de 32 o 64 bits. Es posible encontrar 32 bits en las especificaciones de la resolución pero esto se refiere sólo a esto último y no a los bits de cuantificación. ¿Por qué frecuencias de muestreo tan altas si nuestro oído está limitado a un máximo de 22 kHz? Los últimos formatos de audio multicanal como Super Audio CD (SACD) y DVD Audio utilizan estas frecuencias. Esto puede estar relacionado con los algoritmos multirresolución de conversión de frecuencia de muestreo pero no exactamente con el ancho de banda de la señal grabada.

La edición de las muestras de audio digital es no lineal (aunque el audio aparece secuencial o continuo, en realidad pudiera estar distribuido en zonas del disco duro muy distantes entre ellas) y a menudo está compuesta por aplicación de efectos, creación de bucles y regiones y la generación de listas de eventos. Normalmente soporta muestreadores externos y sincronización MIDI (MTC) y SMPTE.

Page 89: introducción al audio digital v2

89

Los programas de edición de audio digital soportan una amplia variedad de formatos de archivos de audio que incluye WAV, AIFF, etc. y también formatos de compresión: con y sin pérdidas y ofrecen una amplia gama de formatos de salida. Uno de los primeros usos que tuvieron los editores fue preparar las muestras de audio de los sintetizadores por tabla de ondas: definir los puntos de inicio y fin de bucle, obtener y definir la altura de la nota, modificar la envolvente, procesar las muestras, facilitar el intercambio (entrada-salida) entre el ordenador y muestreadores (samplers) externos, etc.

Son capaces de realizar ediciones complejas, mezclas y entrecruzamientos y crear bucles y regiones mediante operaciones intuitivas del tipo “arrastrar y soltar”. Cada región se puede asignar a una nota MIDI o a un instante SMPTE para dispararla desde secuenciadores o teclados MIDI.

Incluyen una extensa gama de herramientas de procesado de audio digital como: eliminación de silencios, fundidos, inserción de silencios, inversión de onda, normalización de ganancia, ecualización gráfica y paramétrica, síntesis y re-muestreo de frecuencia variable, alteración del tiempo, procesado dinámico (compresión/expansión/limitador), chorus, eco, retardo, distorsión, modulación de amplitud, puerta de ruido, vibrato, reverberación, cambio de tono, envolvente, flanger, etc. y el soporte de plugins para ampliar sus funciones dinámicamente y a terceros fabricantes.

Habitualmente los editores funcionan con uno o dos canales (estéreo) de audio. Sin embargo, existen editores como Adobe Audition (en la imagen anterior) que permiten cualquier número de canales.

La fuerte competencia y las estrategias empresariales amplia, no sólo la estabilidad y facilidad de uso, sino la funcionalidad de las aplicaciones; complicando, cada vez más, su clasificación. Es por ello encontrar en una misma aplicación prácticamente todas las funciones. Hace unos años esto podría comprometer la calidad final del producto (a diferencia de la especialización). Sin

Page 90: introducción al audio digital v2

90

embargo, hoy día cuando un fabricante ofrece una amplísima y variada oferta de funciones no significa que haya construido todas desde cero; lo más probable es que las haya comprado o absorbido desde otros fabricantes más modestos y especializados o al menos sus patentes; lo que permite ofrecer calidad, versatilidad y precio muy competitivos.

Paquetes como Live (en la siguiente imagen) son auténticos todo-terrenos que ofrecen todo-en-uno con excelente calidad, estabilidad, versatilidad y facilidad de uso para todas las etapas: creación, producción, actuación.

Page 91: introducción al audio digital v2

91

Apéndices

A Glosario

Acústico Se refiere a los sonidos que ocurren naturalmente, como los instrumentos musicales acústicos.

AES/EBU Estándar profesional para transferencias de alta velocidad de dos canales de audio digital. Desarrollado conjuntamente por la Audio Engineering Society (AES) y la European Broadcasting Union (EBU) (ver S/PDIF).

Aftertouch (Presión posterior a la pulsación) Mensaje MIDI de presión sobre el teclado.

Aliasing Distorsión digital que aparece cuando se introducen en el sistema frecuencias más altas que la mitad de la frecuencia de muestreo. El aliasing o solapamiento se elimina colocando un filtro anti-solapamiento justo a la entrada del circuito de muestreo de la señal para limitar la señal en banda.

<<All note off>> Mensaje MIDI que permite interrumpir todas las notas de un sistema MIDI.

Amplitud Cantidad de desplazamiento desde un punto cero. La amplitud de un sonido acústico es una medida del desplazamiento de la presión del aire, mientras que la amplitud de las señales analógicas es una medición del incremento o decremento de voltaje.

Analógico Literalmente “similar a”. Las señales eléctricas analógicas a la salida de un transductor representan el sonido físico; su cambio de amplitud sobre el tiempo es equivalente al de la señal acústica original (ver Transductor).

Ancho de Banda Rango de frecuencias presentes en el sonido.

Archivar Proceso de hacer una guarda permanente de los datos; normalmente se hace en cintas, o discos magneto-ópticos, DAT u otros medios digitales removibles.

Archivo de Sonido (Soundfile) Archivo de ordenador que contiene datos de audio digital.

Tema

13

Page 92: introducción al audio digital v2

92

Armónico Frecuencia secundaria de un sonido. Todos los sonidos naturales están formados por una combinación de múltiples (infinitos) armónicos.

Ataque Primer segmento de una envolvente de amplitud, principio de un sonido.

Audible Rango de audición humano; frecuencias entre 20 Hz y 20 kHz.

Bend (Pitch Bend) Mensaje MIDI de cambio contínuo de altura.

Bit Dígito binario; valor lógico (0 ó 1).

Bits de Resolución Número de bits utilizados por un sistema de grabación digital. Para calidad de audio CD se requieren 16 bits.

Bucle (Looping) Reproducción de datos repetidamente.

<<Bulk dump>> Mensaje MIDI exclusivo de sistema que transmite el contenido de las memorias de un aparato.

Byte Grupo de ocho bits.

Canal de Audio Salida discreta a través de la cual se encamina la señal de audio.

Cartucho Removible (Cartidge Removable) Disco duro portátil encapsulado en un pequeño cartucho. Aunque es compacto y manipulable, los cartuchos removibles generalmente tienen capacidad limitada y tiempos de acceso relativamente lentos (ver Disco Duro y Syquest).

CD (Compact Disk – Disco Compacto) Estándar de disco óptico de solo lectura que normalmente contiene datos de audio digitalizado.

CPU (Central Processing Unit – Unidad de Procesamiento Central) Microprocesador central del ordenador, responsable de toda la lógica del sistema y de la organización de la memoria.

Clock Reloj informático.

Compresión de Datos Técnica matemática que permite almacenar los datos en el disco de forma compacta.

ADC (Conversor Analógico a Digital – Analog Digital Converter) – Componente que muestrea la señal eléctrica que llega en intervalos de tiempo regulares muy cortos y genera una secuencia de números equivalentes al voltaje recibido en cada intervalo.

DAC (Conversor Digital a Analógico – Digital Analog Converte) – Componente que recibe una señal digital continua de un medio de almacenamiento y genera un voltaje equivalente por cada número recibido.

Cruce por Cero Punto en el cual la onda de audio tiene amplitud cero. Cuando se truncan, desdoblan, o se crean bucles sobre regiones de archivos de sonido, es muy importante la detección de cruce por cero para evitar “pops” o “clics” espúreos en el sonido.

Page 93: introducción al audio digital v2

93

Cuantificación Función que sirve para la colocación automática de la información registrada.

DAT (Digital Audio Tape) – Grabador digital de consumo similar al grabador de cinta de vídeo. El medio de cinta físico es una cinta pequeña cerrada, de aproximadamente la mitad de una cinta de audio.

Decibelio (dB) Unidad de medida utilizada para describir la amplitud de un sonido. Esta medición es relativa y logarítmica, en lugar de lineal. Por lo tanto, un incremento en amplitud de 1 dB equivale realmente a una señal 10 veces más fuerte.

Digital Literalmente, “usando dígitos”. Un ordenador es un dispositivo digital típico, el cual puede “pensar” sólo en términos binarios uno (encendido) y cero (apagado).

Disco Duro Medio de almacenamiento de alta capacidad. Esta compuesto por una serie de platos concéntricos encerrados en un recinto herméticamente cerrado. Los discos duros pueden estar montados dentro del ordenador o pueden ser dispositivos externos.

Ecualización Proceso mediante el cual son atenuadas o reforzadas diversas áreas de frecuencia de una señal.

DEQ (Digital EQualization – Ecualización Digital) – Proceso mediante el cual son atenuadas o realzadas diferentes áreas de frecuencia de la señal.

Ecualización Paramétrica Proceso de ecualización que permite al usuario especificar la frecuencia central y el ancho de banda de cada área a atenuar o realzar (ver Ancho de Banda, Ecualización Digital y Ecualización).

Editor Muestra los datos en la pantalla del ordenador y permite alterarlos.

Editor de Ondas Programa que permite realizar operaciones de “microcirugía” sobre los archivos de audio digital, tal como la manipulación manual sobre secciones de la onda para eliminar “pops” o “clics”, o crear efectos de fundido, o aplicar envolventes de amplitud o frecuencia definidas por el usuario. Los editores de forma de ondas también proveen un conjunto de herramientas para la definición precisa de regiones de archivos de sonido, para la construcción de listas de reproducción, y para eliminar datos indeseables (ver Lista de Reproducción).

Envolvente Componente hardware o software que provoca variaciones de la amplitud, altura o timbre del sonido en el tiempo.

Evento de Audio Región de un fichero de sonido, colocada en una pista. Un evento de audio contiene un puntero a un área específica de un archivo de sonido. Algunos le llaman “segmento”.

Excitador Aural Efecto psicoacústico único que añade armónicos a la señal de entrada.

Filtro Componente digital o analógico que elimina de un sonido frecuencias indeseadas.

Page 94: introducción al audio digital v2

94

Filtro Anti-Imagen A veces denominado filtro de “suavizamiento”. Componente digital que reduce el error de cuantización interpolando entre puntos de muestra.

Filtro Anti-Solapamiento Filtro paso-bajo analógico cuya frecuencia de corte es elegida aproximadamente a la mitad de la frecuencia de muestreo seleccionada. Se coloca justo antes del conversor analógico-a-digital. Este filtro resuelve efectivamente el problema del solapamiento.

Filtro Paso Bajo Filtro que elimina frecuencias por encima de una frecuencia de corte en particular y deja pasar todas las frecuencias que estén por debajo de ella.

Filtro de Suavizado ver Filtro Anti-Imagen.

Formatear Proceso de inicialización de un medio de almacenamiento como disco o cinta para trabajar con un sistema en particular. Esta operación borra todos los datos grabados anteriormente.

Fragmentación Situación indeseable donde los archivos de datos están almacenados en distintas áreas físicas de un disco (provoca tiempos de acceso más lentos).

Frecuencia Número de ciclos de una onda que ocurren en un período de tiempo dado. La unidad de medida de la frecuencia es el Hertzio (Hertz).

Frecuencia de Corte Área de frecuencia central de un filtro definida por el usuario. Un filtro paso-bajo elimina las señales que estén por encima de la frecuencia de corte y permite el paso de las señales que estén por debajo.

Frecuencia de Muestreo Frecuencia con la cual un conversor analógico a digital rastrea una señal eléctrica. Frecuencias de muestreo altas proporcionan audio de mayor fidelidad pero requieren de mayor capacidad de almacenamiento (ver Conversor Analógico a Digital, CD y DAT).

FSK Señal empleada para la sincronización de un secuenciador y una grabadora de cinta.

Generador de Tonos (Tone Generator) Instrumento musical electrónico que produce señales de audio, ya sea por manipulación directa de la señal eléctrica (como en los sintetizadores analógicos) ya sea mediante funciones matemáticas para alterar una secuencia de números (como en los sintetizadores digitales contemporáneos).

Gigabyte Un millón de bytes (o sea, mil megabytes) de datos.

Hertzio (Hz) Unidad de medida de la frecuencia, representa un ciclo de onda por segundo.

Interfaz Punto en el cual interactúan sistemas independientes. Una interfaz puede ocurrir entre maquinas (como en la interfaz MIDI, que permite interactuar a los instrumentos musicales electrónicos y/o a los ordenadores) o entre hombre y máquina (como la interfaz de usuario software, que determina cómo el usuario navega a través

Page 95: introducción al audio digital v2

95

del programa).

Interfaz MIDI Dispositivo físico (hardware) que permite al ordenador “dialogar” el lenguaje MIDI y comunicarse con otros dispositivos MIDI como los instrumentos musicales electrónicos.

Kilobyte 1024 bytes de datos.

KiloHertzio (kHz) Unidad de medida de frecuencia, representa mil ciclos de onda por segundo.

Lista de Reproducción (Playlist) Lista de regiones de un archivo de sonido a reproducir secuencialmente, con un tiempo de disparo SMPTE específico para cada una (ver Editor de Formas de Ondas).

Magneto – Óptico (MO) Medio de almacenamiento de muy alta capacidad que combina campos magnéticos y óptica láser para escribir datos en discos construidos especialmente. Como estos manipuladores tienen tiempos de acceso relativamente lentos, se recomiendan sólo para archivar datos de audio digital (ver Tiempo de Acceso).

Manipulador (Driver) Componente software que permite al ordenador el acceso a un dispositivo periférico.

Matriz Dispositivo que permite las conexiones entre diversos aparatos.

Megabyte Un millón de bytes de datos. A veces llamado “mega”.

Mezclador Dispositivo que fusiona señales de audio desde numerosas fuentes (como instrumentos electrónicos, micrófonos, reproductores de cintas, reproductores de CD, etc.). A menudo contienen potenciómetros deslizantes (sliders) que permiten el ajuste independiente del nivel y la posición panorámica de cada fuente (ver Panorámica).

MIDI (Musical Instrument Digital Interface) Acrónimo de Interfaz Digital de Instrumentos Musicales, un “lenguaje” digital estándar que permite comunicarse entre sí a instrumentos musicales electrónicos y ordenadores.

MTC (MIDI Time Code – Código de Tiempo MIDI) Mensaje de tiempo real de un sistema MIDI que asigna una dirección única a cada instante de tiempo (normalmente cada 120 partes de un segundo). Es similar al código de tiempo SMPTE, pero es transmitido por los puertos MIDI. Se utiliza principalmente para la sincronización de la reproducción de archivos MIDI y audio digital (ver SMPTE y Reloj Universal).

Muestra (Sample) Grabación digital de un instante de un sonido natural (ver Conversor Analógico a Digital y Conversor Digital a Analógico).

Muestreador (Sampler) Instrumento musical electrónico que soporta la grabación y reproducción de muestras digitales (ver Muestra).

Multipista Se refiere a un dispositivo o componente software que provee más de dos pistas para el almacenamiento de la información (ver Pistas y Pistas Virtuales).

Page 96: introducción al audio digital v2

96

Mute Comando que permite silenciar individualmente una pista.

Onda Vibración regular hacia adelante – hacia detrás. El sonido es una forma de energía transmitida en ondas.

Optimización (Defragmentación) Procedimiento que consolida los archivos existentes sobre el disco duro (sin borrarlos) de manera tal que elimina los espacios en blanco contiguos (ver Fragmentación).

Panorámica Posicionamiento de los sonidos entre los altavoces izquierdo y derecho para crear el efecto de estéreo (ver Mezclador).

PCM (Pulse Code Modulation - Modulación de Impulsos Codificados) Técnica utilizada por la mayoría de los sistemas de grabación digital para codificar matemáticamente las señales de audio.

Periférico Elemento accesorio de un sistema.

Pista Lugar para almacenar información de audio o MIDI. Las grabadoras de cinta proveen una o más pistas físicas en la cinta, mientras que la interfaz de los secuenciadores MIDI y los programas de edición de audio digital proveen una o más áreas de memoria para almacenar los datos (ver Multipista y Pista Virtual).

Pista Virtual Pista digital, llamada “virtual” porque no se corresponde con una localización física (ver Multipista y Pista).

Plataforma Tipo de ordenador utilizado en una aplicación particular.

Polifónico Capaz de reproducir varias notas simultáneamente.

Politímbrico (Multitimbre) Capaz de reproducir varios timbres simultáneamente.

Preset Conjunto de instrucciones almacenadas en memoria configuradas de fábrica.

Procesado Digital de Señal

Operaciones matemáticas realizadas sobre una señal digitalizada que alterar la señal de audio final. La capacidad del procesado digital de señal puede incluir efectos de reverberación, retardo, flanging, phasing, variación de la altura, chorus, modulación de anillo, excitador aural, compresión/limitación, expansión, puerta de ruido, filtrado gráfico o paramétrico, etc.

Programa (Patch) Número asociado a un instrumento de un sintetizador.

Programa MIDI (Software) Programa de ordenador que puede grabar, manipular, reproducir, y/o almacenar datos MIDI.

Puerto MIDI Conector físico a través del cual entran o salen los datos MIDI.

Puerto Serie Conexión física del ordenador a través de la cual entran y salen datos de forma serie.

RAM (Random Access Memory – Memoria de Acceso Aleatorio) Tipo de memoria de ordenador de alta velocidad que permite editar los datos pero requiere del suministro eléctrico constante para conservar los datos. Cuando se carga un programa de aplicación desde disco en un ordenador, este código es colocado en la RAM

Page 97: introducción al audio digital v2

97

del ordenador, donde permanece hasta que se apaga.

Rango Dinámico Diferencia entre el sonido más fuerte y más débil en una situación dada. El rango dinámico típico en audio digital de alta calidad es de aproximadamente 144 dB. Cada bit de cuantificación aporta 6 dB aproximadamente.

Recalibración Procedimiento que ocurre siempre que un disco duro aparca su mecanismo de cabezas interno para protegerlo contra golpes. Algunos discos duros se recalibran automáticamente cada cierto intervalo periódico de tiempo en ausencia de actividad. Esto no es recomendable para el uso en audio digital (ver Disco Duro).

Región Área de un archivo de sonido definida por el usuario (ver Segmento).

Reloj Universal Señal de sincronización extremadamente estable con la cual el código de tiempo SMPTE resuelve las situaciones de difusión profesional (ver SMPTE y Sincronización).

Reverberación Tipo de procesado digital de señal que añade espacio y ambiente al sonido (ver Procesado Digital de Señal).

ROM (Read Only Memory – Memoria de Solo Lectura) Tipo de memoria de alta velocidad que no permite la edición de los datos que almacena pero que no requiere de suministro eléctrico constante para preservarlos (ver RAM).

Ruido de Cuantización Distorsión de la señal de audio original que resulta del hecho de que el conversor analógico-a-digital recibe una señal eléctrica variable continua, pero sólo puede asignar a cada muestra individual un número finito de valores. Este problema se puede minimizar sobremuestreando y aplicando un filtro anti-imagen (ver Conversor Analógico a Digital, Filtro Anti-Imagen y Sobremuestreo).

SCSI Acrónimo de Small Computer System Interface (Interfaz de Sistemas de Ordenador Pequeños). Protocolo de transferencia de datos de alta velocidad utilizado en muchos sistemas de computación para interconectar discos duros, CD-ROM, y otros periféricos. Todas los ordenadores Apple Macintosh (excepto los modelos 128 y 512) y los Atari TT y los Falcon tienen puertos SCSI de serie; las IBM-PC compatibles y las Atari ST o Ste sólo pueden utilizar SCSI si se añaden tarjetas o convertidores especiales.

Secuenciador Dispositivo dedicado o aplicación de ordenador capaz de grabar y reproducir datos MIDI y/o de audio digital en sincronía con un reloj. Un secuenciador se comporta como una grabadora de cinta sin cinta, sin embargo, provee mayor capacidad de edición. Algunos teclados MIDI llevan incluidos un secuenciador para utilizar en actuaciones en directo.

Segmento En algunos programas de audio (como Cubase), una región específica de un archivo de sonido.

Serie Tipo de interfaz de ordenador que envía y recibe datos sobre un sólo hilo, un bit cada vez. e.g., MIDI, puertos de comunicaciones de un ordenador IBM-PC (RS232C), puertos de modem e impresora

Page 98: introducción al audio digital v2

98

de un ordenador Macintosh (RS422).

Sincronización Proceso de alinear eventos uno con otro. Normalmente, los códigos de tiempo SMPTE o MIDI (en los cuales se asigna una dirección única a cada subdivisión de tiempo) se utilizan con el propósito de sincronizar (ver SMPTE y Reloj Universal).

Sintetizador Dispositivo que permite la generación de sonido.

SMPTE (Código de Tiempo SMPTE) Estándar adoptado por la Society of Motion Picture and Television Engineers en la cual se asigna a cada instante de tiempo (normalmente 120 partes de un segundo) una dirección única. Se utiliza masivamente en la industria del cine y el vídeo para sincronizar marcas de audio y visuales una con otra (ver MTC y Sincronización).

Sobremuestreo Proceso software mediante el cual el ordenador interpola entre números adyacentes (suministra valores entre ellos) para reducir el error de cuantización (ver Filtro Anti-Imagen y Ruido de Cuantización).

S/PDIF Acrónimo de Sony/Philips Digital Interface Format. Estándar de bajo consumo para la transferencia a alta velocidad de dos canales de datos de audio digital. Desarrollado conjuntamente por Sony y Philips (ver AES/EBU).

Syquest Mecanismo de cartucho de disco duro removible utilizado por muchos manipuladores populares (ver Cartucho Removible).

Teorema de Nyquist Teoría matemática que establece que, el ancho de banda de una señal digitalizada es aproximadamente la mitad de su frecuencia de muestreo. El corolario de esto es que, cualquier sistema de grabación digital puede sólo muestrear con precisión frecuencias inferiores a la mitad de su frecuencia de muestreo; por ejemplo, si se utiliza una frecuencia de muestreo de 44.1 kHz, sólo serán muestreadas con precisión aquellas frecuencias que estén por debajo de 20 kHz (ver Aliasing y Filtro Anti-Solapamiento).

Tiempo de Acceso (a menudo llamado tiempo de búsqueda). Es la cantidad de tiempo promedio que toma un periférico (e.g., disco duro) en localizar un dato, dado normalmente en milisegundos (milésimas de segundo).

Timbre Calidad tonal de un sonido, determinada por la amplitud y frecuencia de sus componentes armónicos.

Trama Imagen, en cine y vídeo el movimiento se descompone en 24 ó 25 imágenes por segundo.

Transductor Dispositivo que convierte una forma de energía en otra, por ejemplo el micrófono (convierte los cambios de presión del aire en una señal eléctrica analógica) y el altavoz (que convierte una señal eléctrica analógica en movimiento del aire) (ver Análogo).

Trasiente Variación brusca de la amplitud del sonido.

Page 99: introducción al audio digital v2

99

B General MIDI

El conjunto de programas General MIDI fue diseñado para asegurar la compatibilidad de los archivos MIDI y define un conjunto común de nombres de instrumentos y números MIDI. Esto significa que, si se selecciona el programa 4 (Patch), “Piano Honky-tonk”, este debe de sonar más o menos igual cuando se reproduzca sobre cualquier otro sintetizador o tarjeta de sonido General MIDI.

Los sonidos de los instrumentos corresponden a los números en la columna del programa.

PIANO GUITAR ENSEMBLE 1 Acoustic Grand Piano 25 Acoustic Guitar (nylon) 49 String Ensemble 1 2 Bright Acoustic Piano 26 Acoustic Guitar (steel) 50 String Ensemble 2 3 Electric Grand Piano 27 Electric Guitar (jazz) 51 Synth Strings 1 4 Honky-tonk Piano 28 Electric Guitar (clean) 52 Synth Strings 2 5 Rhodes Piano 29 Electric Guitar (muted) 53 Choir Aahs 6 Chorused Piano 30 Overdriven Guitar 54 Voice Oohs 7 Harpsichord 31 Distortion Guitar 55 Synth Voice 8 Clavinet Chromatic 32 Guitar Harmonics 56 Orchestra Hit

PERCUSSION BASS BRASS 9 Celesta 33 Acoustic Bass 57 Trumpet 10 Glockenspiel 34 Electric Bass (finger) 58 Trombone 11 Music Box 35 Electric Bass (pick) 59 Tuba 12 Vibraphone 36 Fretless Bass 60 Muted Trumpet 13 Marimba 37 Slap Bass 1 61 French Horn 14 Xylophone 38 Slap Bass 2 62 Brass Section 15 Tubular Bells 39 Synth Bass 1 63 Synth Brass 1 16 Dulcimer 40 Synth Bass 2 64 Synth Brass 2

ORGAN STRING REED 17 Hammond Organ 41 Violin 65 Soprano Sax 18 Percussive Organ 42 Viola 66 Alto Sax 19 Rock Organ 43 Cello 67 Tenor Sax 20 Church Organ 44 Contrabass 68 Baritone Sax 21 Reed Organ 45 Tremolo Strings 69 Oboe 22 Accordion 46 Pizzicato Strings 70 English Horn 23 Harmonica 47 Orchestral Harp 71 Bassoon 24 Tango Accordion 48 Timpani 72 Clarinet

Page 100: introducción al audio digital v2

100

PIPE SYNTH EFFECTS PERCUSIVE 73 Piccolo 97 FX 1 (rain) 113 Tinkle Bell 74 Flute 98 FX 2 (soundtrack) 114 Agogo 75 Recorder 99 FX 3 (crystal) 115 Steel Drums 76 Pan Flute 100 FX 4 (atmosphere) 116 Woodblock 77 Bottle Blow 101 FX 5 (brightness) 117 Taiko Drum 78 Shakuhachi 102 FX 6 (goblins) 118 Melodic Tom 79 Whistle 103 FX 7 (echoes) 119 Synth Drum 80 Ocarina 104 FX 8 (sci-fi) 120 Reverse Cymbal

SYNTH LEAD ETHNIC SOUND EFFECTS 81 Lead 1 (square) 105 Sitar 121 Guitar Fret Noise 82 Lead 2 (saw) 106 Banjo 122 Breath Noise 83 Lead 3 (calliope lead) 107 Shamisen 123 Seashore 84 Lead 4 (chiffer lead) 108 Koto 124 Bird Tweet 85 Lead 5 (charang) 109 Kalimba 125 Telephone 86 Lead 6 (voice) 110 Bagpipe 126 Helicopter 87 Lead 7 (fifths) 111 Fiddle 127 Applause 88 Lead 8 (bass + lead) 112 Shanai 128 Gunshot

SYNTH PAD 89 Pad 1 (new age) 90 Pad 2 (warm) 91 Pad 3 (polysynth) 92 Pad 4 (choir) 93 Pad 5 (bowed) 94 Pad 6 (metallic) 95 Pad 7 (halo) 96 Pad 8 (sweep)

Page 101: introducción al audio digital v2

101

Mapa de Notas de la Batería General MIDI

Al igual que el conjunto de programas General MIDI, el mapa de notas de la batería General MIDI asegura la compatibilidad entre los archivos MIDI de forma igual que, en la reproducción MIDI, la batería suene igual en todos los sintetizadores o tarjetas de sonido General MIDI.

Los sonidos de la batería corresponden a las teclas del piano de un piano vertical de cualquier ventana de pianola de un secuenciador. Si se dispone de un instrumento General MIDI (GM) en el canal 10, cuando se inserten notas del piano sobre la ventana de edición de pianola, sonarán los sonidos de la batería.

En la siguiente tabla, la columna de la izquierda indica los números MIDI, la columna central representa la nota del piano en la ventana de edición de pianola y, la columna de la derecha muestra los sonidos de percusión correspondientes.

No. MIDI Nota Descripción No. MIDI Nota Descripción 35 B2 Acoustic Bass Drum 59 B4 Ride Cymbal 2 36 C3 Bass Drum 1 60 C5 High Bongo 37 C#3 Side Stick 61 C#5 Low Bongo 38 D3 Acoustic Snare 62 D5 Mute High Conga 39 D#3 Hand Clap 63 D#5 Open High Conga 40 E3 Electric Snare 64 E5 Low Conga 41 F3 Low Floor Tom 65 F5 High Timbale 42 F#3 Closed Hi-Hat 66 F#5 Low Timbale 43 G3 Hi Floor Tom 67 G5 High Agogo 44 G#3 Pedal Hi-Hat 68 G#5 Low Agogo 45 A3 Low Tom 69 A5 Cabasa 46 A#3 Open Hi-Hat 70 A#5 Maracas 47 B3 Low-Mid Tom 71 B5 Short Whistle 48 C4 High-Mid Tom 72 C6 Long Whistle 49 C#4 Crash Cymbal 1 73 C#6 Short Guiro 50 D4 High Tom 74 D6 Long Guiro 51 D#4 Ride Cymbal 1 75 D#6 Claves 52 E4 Chinese Cymbal 76 E6 High Wood Block 53 F4 Ride Bell 77 F6 Low Wood Block 54 F#4 Tambourine 78 F#6 Mute Cuica 55 G4 Splash Cymbal 79 G6 Open Cuica 56 G#4 Cowbell 80 G#6 Mute Triangle 57 A4 Crash Cymbal 2 81 A6 Open Triangle 58 A#4 Vibraslap

Page 102: introducción al audio digital v2

102

Tipos de Controlador General MIDI Los tipos de controlador General MIDI están especificados con los números del 0 -127 y controlan diversos parámetros como la variación continua de la altura (pitch bend), profundidad de los efectos, y volumen.

# Nombre Valores Posibles 1 Modulation Wheel 0 - 127 2 Breath 0 - 127 4 Foot Pedal 0 - 127 5 Portamento Time 0 - 127 6 Data Slider 0 - 127 7 Main Volume 0 - 127 8 Continuos Release 0 - 127

10 Pan 0 - 127 11 Expression Control 0 - 127 64 Sustain 0 = off / 127 = on 65 Portamento Switch 0 = off / 127 = on 66 Sustenuto Switch 0 = off / 127 = on 67 Soft Switch 0 = off / 127 = on 68 2nd Release Switch 0 = off / 127 = on 84 Portamento 0 - 127 91 Effects 1 Depth 0 - 127 (Normalmente Reverb) 92 Effects 2 Depth 0 - 127 93 Effects 3 Depth 0 - 127 (Normalmente Chorus) 94 Effects 4 Depth 0 - 127 95 Effects 3 Depth 0 - 127 96 Data Plus 0 = off / 127 = on 97 Data Minus 0 = off / 127 = on

121 Reset All Controllers normalmente 0 123 All Notes Off normalmente 0 124 Omni Mode Off normalmente 0 125 Omni Mode On normalmente 0 126 Mono Mode On 0 / todas las voces a mono 127 Poly Mode On normalmente 0