17 Jul
Principales procesos postproducción
La postproducción de cine involucra diferentes procesos que requieren de un workflow específico para optimizar los recursos y el tiempo de producción:
Edición:
Como concepto global, en el proceso de edición se incluyen fases como el volcado de material, la creación de proxies y edición de contenidos.
Sonorización:
Escritura, registro y tratamiento de los efectos de sonido y la banda sonora del film.
Efectos visuales:
Creación de los efectos digitales del film por medio de software de animación y/o VFX. Es importante distinguir entre efectos visuales y efectos especiales. Los efectos especiales son técnicas que imprimen diferentes resultados in situ en el proceso de rodaje, y no en la postproducción de los contenidos.
Etalonaje:
Proceso de tratamiento del color desde una perspectiva de significación de los contenidos y el storytelling. Se realiza mediante una suite de tratamiento de color.
Composición digital:
Proceso de unificación del máster de edición con otros elementos, efectos, animaciones, motion, etc. El master final se extrae de este último proceso.
Parámetros de la imagen digital
Framerate:
Término utilizado para determinar el flujo de imágenes por segundo capturadas por una cámara o reproducidas por una secuencia vídeo.
- 24 fps propio del cine – En NTSC esto equivale a 23.976 fps.
- PAL son 25 fps, y es el sistema utilizado para broadcast en Europa.
- El más popular para broadcasting es 30 fps.
- En la mayoría de casos las opciones de 50 y 60 fps estarán solo disponibles en 720p.
Un framerate más alto implica una mayor cantidad de información contenida por segundo, lo que implica mayor peso. Al mismo tiempo un framerate alto nos da un mayor margen para la distensión del tiempo en la secuencia.
Cinematic feel = 24/23.976 fps (NTSC). Además es un framerate fácil de trasladar a 30 fps, y es óptimo para web porque pesará menos.
Framerates superiores a 60 fps. Buenos para deportes, slow motion, look fluido e hiperrealista. El hecho de exponer más frames, hace que entre más luz en el sensor (es un factor influyente sobre el F-Stop).
Resolución:
La resolución de imagen se refiere a la relación entre el ancho y alto en píxeles de la misma. El video tradicional estándar tiene un tamaño de 720 de ancho x 480 de alto. Las dos variantes posteriores de HD son 1280 x 720 y 1920×1080 (full hd). Estos son los estándares tradicionales del mundo del vídeo.
En cine, es común utilizar la referencia “nK”, donde “n” sería la resolución determinada dependiendo del formato de cinta. N es el resultado de multiplicar por 1024 pixeles de resolución horizontal. Así por ejemplo 2K son 2048 x 1526; 4K son 4096 x 3072 pixeles. Aun así, el aspect ratio tiene importancia dentro de esta nomenclatura, de manera que 2k puede referirse también a otras resoluciones: 2048×1556 para apertura completa, 2048×1152 (HDTC con aspect ratio de 16:9) o 2048×872 (Cinemascope con aspect ratio 2:35). Actualmente los estándares 4K también están definidos para televisión, lo que se conoce como Ultra HD 4K y que tienen unos valores relativamente distintos que los de cine. En TV, 4k es el equivalente a 2 veces la resolución Full HD, es decir 3840×2160. Para el caso de resoluciones mayores, como 8K serían 7680×4320.
Pérdida de color: La pérdida de color de las cámaras se debe a que ahorran espacio para poder almacenar en tarjetas de baja capacidad. Está pérdida recae sobre el color, lo que hace que muchas veces los colores que se extraen de una foto no sean iguales a los del vídeo.
Color subsampling: Es una técnica de procesamiento de imagen para reducir la resolución de color sin afectar al brillo, lo que permite que la imagen requiera menos espacio en disco y en el caso del vídeo, menos ancho de banda sin tener la apariencia de una imagen degradada. Cuando vemos el color que captura un equipo determinado, vemos el radio de color subsampling dado por los números 4:4:4, 4:2:2, 4:2:0, etc. Por defecto la información de un pixel en vídeo se construye a partir de los valores Y (luminancia), el valor Cb (azul) y Cr (rojo). La conjunción de los tres se denomina YUV y es lo que nos permite ver el color qué corresponde a cada pixel.
Consecuencia de la pérdida de color: Al grabar muchas imágenes por segundo, no se utiliza la totalidad del sensor, lo que hace que un sensor de 20 megapixels grabe a en vídeo aproximadamente a 2 MPx. Las compresiones de cámara por lo general permiten 8 bits de profundidad de color, lo que son 256 colores, mientras que los 16 bits que permite un archivo RAW son 65.536 colores. Esto es el rango de variabilidad entre las diferentes partes de un rango tonal. Un rango bajo hace las sombras se aprecien turbias. Aunque la pospo puede recuperar alguna pérdida de detalle, es mejor intentar evitar estos problemas durante el rodaje, por ejemplo con una buena iluminación. La compresión afecta el color y al detalle en la imagen
Bit depth:
La profundidad de bits en una imagen, es el contenedor de almacenamiento de dicha información, en sistema binario. Si tengo una profundidad de bits de 1, significa que solo hay dos valores posibles para la información de color de mi imagen: 0 y 1, que se corresponderían con el blanco y el negro. Con una profundidad de 2 tendría 4 valores: 00, 01, 10, 11, que se corresponderían con 4 tonos distintos en la escala: blanco, negro y dos tonalidades de gris. Si pasamos por ejemplo a una profundidad de bits de 5 estaríamos hablando de un rango tonal con 32 variables, del 00000 al 11111. Este ya me da más información tonal en la imagen sin llegar a aportar el detalle total de la realidad. La profundidad de bits estándar de 8 bits me permite un rango tonal de la escala de grises de 256 tonos, para representar las imágenes. Una profundidad de 12 bits me ofrece unos 4000 tonos de rango, una de 14 unos 16.000, y así sucesivamente.
El formato Raw, por ejemplo, precisa de profundidades de bits de 12, 14 o 16 para poder capturarse, y por tanto las cámaras que lo permiten deben tener estas características.
Bitrate:
Es uno de los factores determinantes para obtener una buena calidad en la imagen. Conocido también como flujo de datos, se refiere a la cantidad de información que lee el dispositivo reproductor al reproducir el vídeo, y se mide en MBytes por segundo. Cuanto mayor sea el flujo de datos, mayor será la calidad del material. El bitrate puede ser más determinante incluso que la resolución, ya que un flujo bajo puede suponer mala calidad en imágenes a alta resolución. A mayor flujo de información, también es mayor el peso del archivo o la dificultad de retransmisión.
Deja un comentario