11
INTRODUCCIÓN AL VIDEO Y LA EDICIÓN DIGITAL: Nociones básicas de la imagen en movimiento: FORMATOS DE IMAGEN: *Mapas de bits (archivos raster) *Imágenes vectoriales Mapas de bits (Bitmaps): Los mapas de bits descomponen una imagen en un conjunto de puntos de color. A cada uno de esos puntos se le denomina píxel. Este tipo de imágenes puede ser cambiado de tamaño, pero ello afecta a su calidad. Porque cuando la imagen es reducida lo que se hace es eliminar información (eliminar píxeles). Por el contrario, cuando la imagen se amplía, hay que añadir unos píxeles que realmente no están. Para ello, cada programa de tratamiento de imágenes utiliza un procedimiento distinto para suponer cómo deben ser los píxeles que hay que añadir. A este procedimiento se le denomina interpolación de píxeles, y, dependiendo del programa que lo haga, la imagen resultante tendrá mayor o menor calidad. En todo caso, siempre habrá menos calidad que la que tenía la imagen original. Imágenes vectoriales: Los gráficos vectoriales funcionan de otra manera. En ellos la imagen se define como un conjunto de objetos matemáticos (curvas, elipses, cuadrados, rectángulos, etc), definidos por sus propiedades geométricas (radio del círculo, longitud del cateto, etc.). De esta manera, cuando hay que cambiar el tamaño de la imagen, basta con cambiar las medidas de las figuras geométricas y por lo tanto los cambios de tamaño no afectan a la calidad de la imagen. Un ejemplo claro de este tipo de imágenes son las fuentes True Type, que podemos representar a cualquier tamaño sin deterioro de la calidad. TAMAÑO DE LA IMAGEN: El tamaño de la imagen, en un mapa de bits, se define como el número de píxeles de que dicha imagen consta, lo cual se indica, no mediante un número absoluto, sino mediante dos números: el ancho y el largo. Así, por ejemplo, si leemos que una imagen tiene un tamaño de 600 x 400, queremos decir que dicha imagen tiene 600 píxeles de ancho y 400 de largo, con lo que además de saber el número total de píxeles que tiene (600 x 400 = 240.000), sabremos también el tamaño del rectángulo en donde hay que mostrarla. Como regla general After Effects puede manejar imágenes con una resolución máxima de 30.000 x 30.000. Aunque esta regla tiene algunas excepciones para ciertos formatos específicos, y así: • Archivos PICT: 4.000 x 4.000. • Archivos BMP: 16.000 x 30.000. • Archivos PXR : 30.000 x 16.000.

Introducción al video y la edición digital

Embed Size (px)

DESCRIPTION

Documento complementario a la charla en PP sobre el video digital en AE

Citation preview

Page 1: Introducción al video y la edición digital

INTRODUCCIÓN AL VIDEO Y LA EDICIÓN DIGITAL: Nociones básicas de la imagen en movimiento: FORMATOS DE IMAGEN: *Mapas de bits (archivos raster) *Imágenes vectoriales Mapas de bits (Bitmaps): Los mapas de bits descomponen una imagen en un conjunto de puntos de color. A cada uno de esos puntos se le denomina píxel. Este tipo de imágenes puede ser cambiado de tamaño, pero ello afecta a su calidad. Porque cuando la imagen es reducida lo que se hace es eliminar información (eliminar píxeles). Por el contrario, cuando la imagen se amplía, hay que añadir unos píxeles que realmente no están. Para ello, cada programa de tratamiento de imágenes utiliza un procedimiento distinto para suponer cómo deben ser los píxeles que hay que añadir. A este procedimiento se le denomina interpolación de píxeles, y, dependiendo del programa que lo haga, la imagen resultante tendrá mayor o menor calidad. En todo caso, siempre habrá menos calidad que la que tenía la imagen original.

Imágenes vectoriales: Los gráficos vectoriales funcionan de otra manera. En ellos la imagen se define como un conjunto de objetos matemáticos (curvas, elipses, cuadrados, rectángulos, etc), definidos por sus propiedades geométricas (radio del círculo, longitud del cateto, etc.). De esta manera, cuando hay que cambiar el tamaño de la imagen, basta con cambiar las medidas de las figuras geométricas y por lo tanto los cambios de tamaño no afectan a la calidad de la imagen. Un ejemplo claro de este tipo de imágenes son las fuentes True Type, que podemos representar a cualquier tamaño sin deterioro de la calidad.

TAMAÑO DE LA IMAGEN: El tamaño de la imagen, en un mapa de bits, se define como el número de píxeles de que dicha imagen consta, lo cual se indica, no mediante un número absoluto, sino mediante dos números: el ancho y el largo. Así, por ejemplo, si leemos que una imagen tiene un tamaño de 600 x 400, queremos decir que dicha imagen tiene 600 píxeles de ancho y 400 de largo, con lo que además de saber el número total de píxeles que tiene (600 x 400 = 240.000), sabremos también el tamaño del rectángulo en donde hay que mostrarla. Como regla general After Effects puede manejar imágenes con una resolución máxima de 30.000 x 30.000. Aunque esta regla tiene algunas excepciones para ciertos formatos específicos, y así: • Archivos PICT: 4.000 x 4.000. • Archivos BMP: 16.000 x 30.000. • Archivos PXR : 30.000 x 16.000.

Page 2: Introducción al video y la edición digital

Como es lógico, cuanto mayor sea el tamaño de una imagen, más memoria RAM necesita y será mayor el tiempo de proceso. De tal manera que el tamaño máximo de las imágenes que After Effects puede manejar muchas veces se ve reducido por falta de memoria RAM. Para cargar en memoria una imagen necesitamos tantos bytes de memoria como número de píxeles tenga la imagen, multiplicado por el número de bytes necesario para manejar el color de cada píxel, aparte de la memoria adicional necesaria para procesar la imagen.

PROPORCIÓN DE ASPECTO (ASPECT RATIO): Se llama aspect ratio a la relación entre el ancho y el alto de una imagen, de tal manera que aunque podamos reproducir la imagen a distintos tamaños, para evitar su deformación, siempre tendremos que mantener su proporción. Así, imaginemos que disponemos de distintas pantallas cada una de ellas con un tamaño diferente, y que intentamos proyectar una imagen para llenar cada una de esas pantallas. Si la imagen tiene una proporción de, por ejemplo, 4:3, que es la proporción estándar de los televisores clásicos, cuando enfoquemos nuestro proyector en una pantalla que mida 40 centímetros de ancho y 30 de alto, llenaremos por completo la pantalla. Exactamente igual podremos llenar por completo la pantalla si esta tiene cuatro metros de ancho por tres de alto. Pero si la pantalla tiene 5 metros de ancho y dos de alto, será imposible, por mucho que intentemos centrar nuestro proyector, que la imagen llene por completo la pantalla sin salirse de ella. La noción de aspect ratio se aplica en varios sentidos: • Aspect Ratio de una imagen. • Aspect Ratio de la pantalla en que reproducimos la imagen. Si queremos que la imagen llene toda la pantalla, el aspect ratio entre ambos debe coincidir. Y así, por ejemplo, si trabajamos en imágenes que serán reproducidos en un televisor, hay que tener en cuenta que las pantallas de los televisores normales tienen un aspect ratio de 4:3 (cuatro unidades de ancho por tres de alto), mientras que en televisión de alta definición el aspect ratio es de 16:9 (aumenta exponencialmente). • aspect ratio del píxel. Podría pensarse que, como el píxel es un punto, carece de tamaño y, por lo tanto, de forma y de aspect ratio. Al menos así es como se define en la geometría clásica a los puntos. Sin embargo, el píxel no es un verdadero punto porque no es una medida material, sino una medida lógica. Cuando decimos que una pantalla, por ejemplo, tiene una resolución de 1024 x 768 píxeles, queremos decir que es capaz de representar todos esos puntos, con independencia de su tamaño físico. De manera que cuanto más grande sea la pantalla, más grandes serán los puntos, pero no habrá más de ellos. Es decir: los píxeles sí tienen tamaño y forma. Su tamaño depende del tamaño de la pantalla en la que se represente una imagen. La forma puede ser cuadrada o rectangular. Las pantallas y monitores pueden admitir píxeles cuadrados o rectangulares y los programas de tratamiento de imágenes pueden generar imágenes con píxeles cuadrados o rectangulares. Esto es lo que hace que en ocasiones ciertas imágenes no se vean correctamente en determinados monitores, porque si en un monitor de píxeles cuadrados se reproduce una imagen construida con píxeles rectangulares, la imagen aparecerá distorsionada y así, por ejemplo, los círculos se mostrarán como óvalos, lo cual no es un fallo de la imagen, sino una incompatibilidad entre la construcción interna de dicha imagen y el monitor en donde se representa: esa misma imagen, en otro monitor, se verá correctamente.

Page 3: Introducción al video y la edición digital

Cuando un píxel no es cuadrado, sino rectangular, se habla de su aspect ratio para hacer referencia a la forma del rectángulo. Es decir: un píxel cuyo aspect ratio sea 4:3, tendrá cuatro unidades de ancho por tres de alto, cualquiera que sea el tamaño de dicha unidad. El aspect ratio del píxel es importante cuando se trabaja con imágenes digitales, porque determinados formatos estándar exigen una proporción determinada, de tal modo que si no se respeta, la imagen se verá distorsionada; o simplemente el dispositivo al que hay que enviar la imagen no la recibirá correctamente. After Effects necesita además conocer el aspect ratio del píxel de una imagen, para realizar las correcciones necesarias que impidan su distorsión al ser reproducida en un determinado monitor.

COLOR, PROFUNDIDAD DEL COLOR Y CANALES DE COLOR: Existen varias formas para representar la información sobre el color de una imagen (HLS, RGB, CMYK, CIE, etc). De todas ellas After Effects utiliza el sistema denominado RGB que es posiblemente el más extendido, y cuyo nombre viene de las siglas, en inglés, de las palabras Rojo, Verde, Azul (Red, Green, Blue). El sistema RGB se basa en la consideración de que un amplio porcentaje del espectro de colores visible se puede representar combinando luz de color rojo, verde y azul (RGB) en distintas proporciones e intensidades. Debido a que los colores RGB se combinan para crear el blanco, también se denominan colores aditivos. La suma de todos los colores produce el blanco, es decir, se transmite toda la luz al ojo. Los colores aditivos se usan para iluminación, vídeo y monitores. El monitor, por ejemplo, crea color mediante la emisión de luz a través de fósforos de color rojo, verde y azul.

Los archivos que utilizan este sistema de representación del color, almacenan la información para cada píxel, en tres bytes de la memoria del ordenador: El primer bit representa al valor de rojo de dicho píxel, el segundo el valor de verde y el tercero el valor de azul. Y como un byte admite un rango de valores entre 0 y 255, mediante este sistema pueden representarse hasta 16.777.215 colores diferentes (2553). Como un byte tiene ocho bits, en estos casos se dice que se está utilizando una profundidad de color de ocho bits. Algunos programas pueden, no obstante, generar imágenes con una profundidad de color de 16 bits, lo que significa que, para cada color (verde, rojo, azul), se utiliza no un byte, sino dos bytes. Ello hace que el número de colores distintos que puede haber en la imagen llegue hasta 281.462.092.005.375. Aunque After Effects por defecto trabaja con una profundidad de color de 8 bits, puede trabajar con una profundidad de 16 bits, aunque, en este caso, algunos efectos de los que After Effects puede aplicar, no funcionarán correctamente. Por otro lado, si el color de un píxel concreto se representa mediante tres valores (valor de rojo, valor de verde y valor de azul), es posible descomponer la

Page 4: Introducción al video y la edición digital

imagen para representar solamente los valores de rojo, los de verde o los de azul. En estos casos se habla de “canales de color”. Toda imagen cuyo color se represente mediante el sistema RGB tiene un canal rojo, otro verde y otro azul.

OTROS SISTEMAS DE REPRESENTACIÓN DEL COLOR: El modelo RGB no es el único modelo posible para representar colores. Existen otros modelos, de los que proceden nociones que es necesario comprender para entender el funcionamiento de los efectos de color incorporados en After Effects, así como, en gran medida, las claves de transparencia y los mates. Un sistema de representación de colores bastante popular es el conocido como Modelo HLS (siglas, en inglés de Hue (Tono), Lightness (Brillo), Saturation (saturación)). En este sistema existe una rueda de colores estándar en la que los distintos colores se mezclan. Pues bien: partiendo de dicha rueda estándar, se distinguen las siguientes nociones. • Hue: Es el color reflejado o transmitido a través de un objeto. Este concepto coincide con el concepto normal de color. Así hay un tono azul, o amarillo, o naranja, etc. El tono se mide como un radio en la rueda de colores estándar y se expresa en grados entre 0 y 360. • Ligthness: Es la luminosidad u oscuridad relativa del color y se suele medir como un porcentaje comprendido entre el 0% (negro) y el 100% (blanco). Las emisiones televisivas, por su parte, utilizan el modelo YUV en el que la señal se descompone en tres partes. De un lado la llamada Luminancia o intensidad (Y), en segundo lugar la componente de color azul (U), o crominancia azul, y, finalmente, la componente de color rojo (V) o crominancia roja. Aunque After Effects utiliza internamente el sistema RGB, es capaz de convertir entre RGB y los demás sistemas, de tal manera que muchos efectos se apoyan en las componentes de color de sistemas de representación del color distintos de RGB. • Saturation: También denominado cromatismo. Representa la fuerza o pureza del color, la cual depende de la cantidad de gris que existe en proporción al tono. La saturación se mide como un porcentaje comprendido entre el 0% (gris) y el 100% (la saturación completa). En la rueda de colores estándar, la saturación aumenta conforme nos acercamos al borde y disminuye conforme nos acercamos al centro.

ZONAS TRANSPARENTES (CANAL ALFA): Algunas aplicaciones permiten incluir en una imagen ciertas partes que sean total o parcialmente transparentes. Eso significa que cuando dicha imagen se coloque sobre otra imagen, a través de las partes transparentes podrá verse a la imagen que está debajo; lo cual es extremadamente útil en composición de efectos especiales para video, pues permite superponer dos imágenes de tal manera que se vean ambas. La información sobre transparencia de la imagen se realiza de modo análogo a la información sobre el color: para cada píxel de la imagen se almacena, en un byte (o en dos bytes si se trabaja a una profundidad de color de 16 bits), un valor representativo de su nivel de transparencia. Y del mismo modo que se habla de canales de color (rojo, verde o azul), se habla también del canal de transparencia, normalmente denominado canal “alfa”. Por otra parte, los programas capaces de crear imágenes con zonas transparentes, pueden almacenar la información sobre la transparencia de dos maneras: De manera directa en un canal alfa simple, o de manera enmascarada. En el primer caso se habla de canal alfa directo (Straight alpha channel), o de canal alfa no enmascarado. En el segundo caso se habla de canal alfa premultiplicado

Page 5: Introducción al video y la edición digital

(Premultiplied alpha channel), o canal alfa enmascarado. En las imágenes con un canal alfa premultiplicado, la información sobre transparencia se almacena en dos lugares distintos: • En el canal alfa propiamente dicho. • En los canales de color rojo, verde y azul. Esto se hace asignando un color a la transparencia absoluta (normalmente el blanco o el negro), y multiplicando el valor de rojo, verde, y azul por un valor igual al nivel de transparencia que el píxel posea. De esta manera la información sobre la transparencia se encuentra no solo en el canal alfa, sino también en los canales rojo, verde y azul. Cuando After Effects lee un archivo que incorpore un canal alfa, para interpretarlo correctamente necesita saber dos cosas: • Si se trata de un canal alfa directo o premultiplicado. • En el caso de ser un canal alfa premultiplicado, qué color se utilizó para la premultiplicación. Esta es la razón de que cuando en After Effects se importa un archivo que contiene un canal alfa, si en el propio archivo no se contiene información sobre el tipo de canal alfa de que se trata, After Effects muestre el cuadro de diálogo de interpretación de clips, para que el usuario le indique cómo debe interpretar dicho canal alfa. Nota: Muchas veces al canal alfa se le denomina mate; aunque se trata de dos técnicas distintas que tienen en común el que ambas sirven para crear una transparencia. La diferencia está en que el canal alfa incorpora la transparencia al archivo. No obstante, cuando se hable de los efectos de transparencia se verá hasta qué punto la terminología es variable.

ARCHIVOS CON IMÁGENES EN MOVIMIENTO: Un sistema informático logra producir la sensación de que una imagen se mueve por el simple procedimiento de reproducir a una velocidad determinada, varias imágenes entre las cuales hay pequeñas variaciones: la sensación final es la de que la imagen se mueve. En este principio se basan el cine, la televisión, o los dibujos animados. Existen muchas modalidades de archivos con imágenes en movimiento, por ejemplo: Archivos de video (extensión AVI, MPG, MOV), gifs animados, Macromedia Flash, etc.. After Effects es capaz de crear archivos en la mayoría de estos formatos.

FRAMES (Fotogramas) Y FIELDS (Campos): Si un archivo de video reproduce a cierta velocidad un número de imágenes, cada una de dichas imágenes se denomina frame. En video para computador, así como en cine, para cada imagen hay exactamente un frame. Ahora bien, en los sistemas televisivos, junto al concepto frame se encuentra el concepto field: Para entender la noción de field hay que tener en cuenta que los televisores, para mostrar un frame, realizan un barrido de arriba a abajo; es decir: van dibujando las líneas horizontales desde la primera hasta la última. Sin embargo, para mantener la estabilidad de la imagen, el barrido no es uniforme, sino que primero se dibujan las líneas impares (odd lines) y luego las pares (even lines) o al revés. A este procedimiento se le denomina video entrelazado o interlaced y se consigue dividiendo cada frame en dos campos o fields distintos: uno contiene las líneas horizontales pares (even) de la imagen y el otro las líneas horizontales impares (odd).

Page 6: Introducción al video y la edición digital

Lo anterior significa que, por ejemplo en un sistema PAL, donde se muestran 25 frames por segundo, habrá 50 fields por segundo. El field, sin embargo, no se puede tratar de forma independiente, porque no es un frame. No podemos, por ejemplo, editar un field para hacer en él cambios, tendremos que editar el frame entero. El video interlaced se utiliza sólo en televisión. Por lo tanto cuando capturamos video que procede de la televisión (o de una cinta de video) nuestro archivo tendrá video interlaced. Asimismo, cuando realizamos un trabajo cuyo destino es la televisión, tendremos que generar un archivo de video con fields. Pero si el destino no es la televisión, es preferible trabajar con video no entrelazado o non interlaced video, pues así aumenta la calidad y estabilidad de la imagen. Por lo tanto, con After Effects es posible: • Separar los campos entrelazados, para convertir el video interlaced en non interlaced. • Generar fields y entrelazarlos partiendo de vídeo non interlaced. Al procedimiento por el que se muestra video no entrelazado (sin fields) se le denomina también Exploración progresiva (progressive scan); y algunas cámaras de video son capaces de utilizar tal procedimiento.

VELOCIDAD: Como se ha dicho, la sensación de movimiento se obtiene reproduciendo los distintos frames a cierta velocidad. La velocidad de reproducción (playback speed) es pues, una característica fundamental de estos archivos. La velocidad de reproducción se suele medir en Frames Por Segundo (FPS). Normalmente, a mayor velocidad, más fluidez tendrá el movimiento pero el archivo ocupará un mayor espacio en disco (porque almacenará más frames) y requerirá un equipo más potente, porque tendrá que cargar y descargar en memoria muchos más datos. Aunque podemos darle a nuestro archivo de video la velocidad que queramos, normalmente se utilizan ciertas velocidades estándar: • Para gifs animados y flash se suele utilizar una velocidad de entre 10 y 15 FPS. • El cine utiliza la velocidad de 24 FPS. • La televisión y el video PAL utilizan la velocidad de 25 FPS. • La televisión y el video NTSC utilizan la velocidad de 29’97 FPS. Indicación de la velocidad en After Effects: Respecto del tratamiento de la velocidad de frames en After Effects, hay que tener en cuenta lo siguiente: • Velocidad de frames original del clip. • Velocidad de frames con la que After Effects interpreta el clip • Velocidad de frames de la composición. • Velocidad de frames de un clip dentro de una composición. • Velocidad de frames del archivo final. En teoría todas estas magnitudes pueden ser diferentes. Es decir: Podemos, por ejemplo, importar al proyecto un clip cuya velocidad de frames es de 15 FPS. En el

Page 7: Introducción al video y la edición digital

proyecto indicar que queremos interpretar dicho clip a una velocidad de 24 FPS. Más tarde incorporarlo a una composición con una velocidad de 25 FPS. Dentro de la composición, alterar el clip mediante algún efecto para que su velocidad pase a ser de 12 FPS, y, finalmente, exportar la composición a un archivo con una velocidad de 30 FPS. Todo esto es posible, pero normalmente se traducirá en una reproducción con poca fluidez. Y aunque After Effects proporciona una utilidad para evitar esa falta de fluidez (la mezcla de frames o frame blending), lo preferible es utilizar siempre que sea posible la misma velocidad en todos los casos.

MEDICIÓN Y VISUALIZACIÓN DEL TIEMPO: Normalmente contamos el tiempo mediante unidades más o menos grandes (siglos, años, meses ... minutos, segundos) según para qué lo estemos contando. Cuando se trata de medir la velocidad a la que se proyectan los frames para producir sensación de movimiento, es claro que la unidad “segundo” es demasiado grande, pues si se reprodujera un video o una película a la velocidad de un frame por segundo no habría sensación alguna de movimiento. Por ello se han ideado otros sistemas de cuenta del tiempo, de los que After Effects puede manejar los siguientes: • Sistema SMPTE (Society of Motion Picture and Television Engineers): Es el sistema que emplea After Effects por defecto, también llamado Timecode. Con este sistema el tiempo se cuenta por horas, minutos, segundos y frames, separando todas estas magnitudes, normalmente, mediante el signo de los dos puntos (:). Así, por ejemplo: 01:10:01:03 se refiere al tercer frame del primer segundo del décimo minuto de la primera hora de reproducción. • Frames: Este sistema cuenta exclusivamente frames. Por lo tanto para relacionarlo con el tiempo real, debemos saber a qué velocidad se reproducen los frames. Es decir: la cuenta 00529, en un video emitido a 25 FPS (frames por segundo), se refiere al cuarto frame del segundo 21; pero esa misma cuenta en un video emitido a 30 FPS, se refiere al frame nº 19 del segundo nº 17. • Pies y frames: Es una medida de tiempo basada en la longitud de una película cinematográfica. En las películas cinematográficas de 35 mm, en un pie (medida anglosajona -Foot) caben 16 frames; mientras que si la película es de 16 mm, en un pie caben 40 frames. Pues bien: con este sistema de medición se indica el nº de pies y el nº de frames. Así por ejemplo la medida 002+11 indicará dos pies y once frames del tercer pie. Eso significa, si la película es de 25 mm, un total de 43 frames; y si la película es de 16 mm, un total de 91 frames. El sistema usado por After Effects por defecto, llamado Timecode o SMTPE, no sólo es el más claro y el de uso mas extendido, sino el único que nos permite hacernos una idea real de la duración. Se utiliza por ejemplo, en las cámaras digitales de video y en general en los dispositivos de captura de video. Las cintas de video digital lo incorporan en una pista aparte. Por ello, salvo que haya razones importantes, no conviene cambiarlo.

Page 8: Introducción al video y la edición digital

Nota sobre como escribir medidas de tiempo en After Effects. Siempre que en After Effects haya que escribir una medida de tiempo, si el sistema de medición del tiempo es el Timecode, podemos introducir el tiempo deseado sin necesidad de escribir los dos puntos que se usan como separadores en dicho sistema. Asimismo el número introducido se interpretará siempre de derecha a izquierda, asumiendo que las partes no introducidas tienen un valor de cero. Así, por ejemplo, si introducimos como valor 102, After Effects interpretará que se ha querido introducir 0:00:01:02. Es decir: la cifra introducida se interpreta de derecha a izquierda considerando que las dos últimas cifras se refieren a los frames, las dos cifras anteriores a los frames se refieren a los segundos, etc. Si introducimos un número imposible de minutos, segundos o de frames, After Effects realizará los cálculos necesarios. Así, por ejemplo, si introducimos el número 7500, After Effects, en lugar de interpretar 0:00:75:00, como un minuto no puede tener 75 segundos, considerará que se ha introducido 0:01:15:00 (porque 75 segundos equivalen a un minuto y quince segundos).

SISTEMAS DE TELEVISIÓN: NTSC, PAL Y SECAM: Cuando estamos trabajando en un archivo de video cuyo destino es ser reproducido en un televisor, es imprescindible tener en cuenta que en el mundo existen dos estándares televisivos diferentes: el NTSC (National Television System Committee) y el PAL (Phase Alternation Line). El primero se usa en Estados Unidos y Japón. El segundo en Europa. El resto del mundo adopta uno de ambos estándares. Muy parecido al sistema PAL es el sistema SECAM (SECuentielle A Mémoire), utilizado en Francia y en gran parte de la Europa del Este. Las diferencias entre ambos sistemas son puramente técnicas, pero desde el punto de vista informático, los archivos PAL y SECAM son idénticos. Por esta razón a lo largo de esta guía no se volverá a hablar del sistema SECAM: todo lo que se diga para el sistema PAL vale también para el SECAM. Las diferencias entre NTSC y PAL se cifran en los siguientes aspectos: • Velocidad de frame: 29’97 en NTSC y 25 en PAL. • Tamaño de frame: 720 x 480 en NTSC y 720 x 576 en PAL • Rango de colores admisibles: Restringido en NTSC y mucho más amplio en PAL. • Proporción de aspecto de píxel: 0’9 en NTSC y 1.067 en PAL. El resultado de estas diferencias es el de que un archivo de video construido para uno de los sistemas, no podrá verse correctamente en el otro. Por lo tanto, a la hora de hacer nuestros trabajos con After Effects es imprescindible tener en cuenta cuál es el sistema de televisión de nuestro país, o de los países en los que se piensa difundir nuestro video.

VIDEO ANALÓGICO Y VIDEO DIGITAL (DV): Desde un punto de vista estricto, todo archivo de video constituye video digital. Sin embargo, en la práctica esta denominación se reserva para un tipo de archivos muy específicos: los que fueron grabados con un dispositivo digital de acuerdo con un estándar denominado DV que (en sistemas NTSC) admite un subformato denominado D1. Este estándar implica que en tamaño de frame, velocidad y proporción de aspecto de píxel, el archivo se debe ajustar a uno de los dos estándares: NTSC o PAL.

Page 9: Introducción al video y la edición digital

Desde el punto de vista interno estos archivos utilizan un codec específico que mantiene un flujo constante de datos de 3.6 MB por segundo. El video análogo, por el contrario, ha sido grabado mediante un dispositivo análogo; es decir: un dispositivo que transmite la información sobre la imagen y el sonido creando variaciones en una señal electromagnética. Antes de poder usar cualquiera de ambos tipos de video en un proyecto de After Effects tendremos que importarlo al computador, para lo cual será preciso algún dispositivo que nos permita conectar el computador con el dispositivo reproductor del video. Este dispositivo puede ser, para el video digital, una tarjeta firewire (también llamada i.link, o puerto IEEE 1394). Para digitalizar el video analógico necesitaremos una tarjeta capturadora de video. Es en este punto en el que se observa la principal diferencia entre el video análogo y el video digital, porque mientras el proceso de captura del video digital transmite al computador EXACTAMENTE el video grabado, sin pérdida alguna de calidad, la captura de video análogo mediante tarjeta casi siempre implica una mayor o menor pérdida de calidad, dependiendo de la calidad de la tarjeta y de la potencia del equipo. Hay además otras diferencias significativas. Así el video digital lleva incorporado su propio código de tiempo, por lo que es posible realizar sobre él operaciones con precisión de frame incluso aunque se encuentre en la cinta. Los distintos formatos de DV/D1 han de cumplir los siguientes estándares: • DV/D1 NTSC: . Tamaño de frame: 720 x 480 (720 x 486 en D1) . Proporción de aspecto de píxel: 0’9, o 1’2 en modo panorámico . Velocidad de frames: 29’97 FPS. . Codec: Microsoft DV o algún codec específico para DV • DV PAL: . Tamaño de frame: 720 x 576 . Proporción de aspecto de píxel: 1’0666, ó 1’422 en modo panorámico . Velocidad de frames: 25 FPS. . Codec: Microsoft DV o algún codec específico para DV. Los formatos analógicos, sin embargo, son mucho más flexibles en cuanto a tamaño de frame (siempre que se mantenga el aspect ratio del frame de 4:3, propio de la televisión.

CINE: PELÍCULAS DIGITALIZADAS Y MÉTODO 3:2 PULLDOWN: Obviamente, desde un computador no podemos generar directamente una película cinematográfica; pero si podemos generar un archivo preparado para ser convertido, mediante los procedimientos adecuados, a película cinematográfica. Las características que debe tener en cuenta un archivo que pretenda ser convertido en película cinematográfica son las siguientes: • Tamaño del frame: Debe tener la proporción 4:3 o 16:9, que son las resoluciones estándar. La segunda es la adecuada para el llamado cinemascope o HDTV. • Velocidad de frames: Debe ser de 24 FPS. • El video no debe ser interlaced. Si se trabaja en NTSC también hay que tener en cuenta el método 3:2 pulldown. Este método se utiliza cuando se transfiere una película cinematográfica (con una velocidad estándar de 24 FPS) a video NTSC (con una velocidad de 29’97 FPS). Para llevar a cabo dicha conversión, los frames de la película se distribuyen entre los fields de video según un patrón repetido de 3:2; es decir, el primer frame del film se copia en los fields 1 y 2 del primer frame de video, y

Page 10: Introducción al video y la edición digital

también en el field 1 del segundo frame de video. El segundo frame de la película es también copiado en los dos fields de video siguiente (field 2 del segundo frame y field 1 del tercer frame de video); y así sucesivamente, de tal manera que cuatro frames de la película ocuparán cinco frames de video. El método 3:2 pulldown genera frames completos (representados por una W) y frames partidos (representados por una S). Un frame completo es el que contiene dos fields con el mismo frame (tres de cada cinco frames de video). Un frame partido (dos de cada cinco) contiene en cada field un frame distinto (aunque adyacentes entre sí). Se denomina fase 3:2 al punto en el que los dos frames partidos se encuentran dentro de los cinco primeros frames del metraje. Esta fase es el resultado de dos conversiones que ocurren durante la aplicación del método: Como con este método los 24 frames de la película se convierten en treinta, es preciso en primer lugar, reducir la velocidad en un 0.1% para ajustarla a la velocidad estándar NTSC de 29.97. En segundo lugar, cada frame de la película es repetido según un patrón especial y emparejado con los fields de video. NOTA: Este método sólo se utiliza cuando se trabaja con video NTSC. Ello es porque este procedimiento es preciso para ajustar una velocidad de 24 FPS a la velocidad de 29.97 NTSC; lo que obliga a generar un frame adicional (dos fields) por cada cuatro frames originales y además reducir la velocidad 1.8 segundos por hora. Por el contrario, en los sistemas PAL, a 25 FPS, sólo hay que generar un frame extra por cada 24 frames originales, lo cual se puede hacer, simplemente acelerando la película un 4% de su velocidad original, y así conseguir el sincronismo. Claro que esto hace que la película en PAL dure 2 minutos 24 segundos menos por hora que el original y que las voces suenen cerca de medio tono más altas.

COMPRESIÓN Y CODEC: Si se tiene en cuenta lo dicho hasta ahora sobre imágenes (tamaño y canales de color), y video (imágenes por segundo), se comprobará que un archivo de video puede llegar a ser muy grande. Así, por ejemplo, en diez minutos de video, en un sistema PAL estándar, tenemos 600 segundos, o, lo que es lo mismo, 15.000 frames. Si cada frame tiene un tamaño de 720 x 576 (= 414.720 píxeles), y para almacenar cada píxel necesitamos cuatro bytes (u ocho bytes con una profundidad de color de 16 bits), resultará que esos diez minutos de video ocuparían más de 23 GB de espacio en disco. Obviamente eso no es operativo. Por ello los distintos formatos de video (también muchos formatos de imagen), aplican ciertos algoritmos de compresión, de tal manera que la información que se almacena en el disco sea reducida. La compresión del video se hace en el momento de grabarlo en el disco. Cuando las imágenes son leídas, necesitan ser descomprimidas. De ello se ocupa el programa reproductor o manipulador del archivo de video. En todo caso una cosa es clara: cuando un archivo de video es comprimido se pierde información. Ello, en una primera instancia, puede no afectar a la calidad. Pero si a un mismo archivo se le aplica varias veces la compresión, la calidad se irá deteriorando progresivamente. El programa que se ocupa de comprimir y descomprimir el video se denomina codec (acrónimo de COmpresor/DECompresor). La peculiaridad de los codecs estriba en que deben encontrarse instalados en el computador para poder manipular o reproducir cierto tipo de archivos de video. Hay codecs que se instalan con el sistema operativo; otros hay que instalarlos expresamente y otros son instalados por ciertas aplicaciones. El codec es importante por varios aspectos:

Page 11: Introducción al video y la edición digital

• De él depende la calidad final de nuestro video, ya que en el proceso de compresión puede perderse más o menos calidad de imagen. No olvidemos que, al comprimir, lo que hacemos es eliminar información. • Dependiendo del codec elegido, cada vez que editemos y modifiquemos nuestro video, podemos deteriorar aun más la imagen. Así ocurre, por ejemplo, con todos los sistemas de compresión basados en MPEG, que proporcionan muy buenos resultados de compresión, pero que son muy poco adecuados para la edición de video, pues cada modificación que hagamos en el archivo deteriorará sensiblemente su calidad, aparte de que con ellos puede ser extremadamente difícil trabajar a nivel de frames, debido al peculiar sistema de compresión que utilizan. • Algunos formatos de video requieren la utilización de un codec específico. Por ejemplo el llamado Digital Video (DV). • Algunas tarjetas capturadoras de video, trabajan con un codec específico, de tal manera que, para, por ejemplo, enviar a través de dicha capturadora un video creado por nosotros, el codec tendrá que ser necesariamente el de dicha tarjeta.

Información compilada Por: Sergio Ceballos Tobón Diseñador Gráfico/ Animador Digital Email: [email protected]