1. Conceptos básicos del vídeo

video

Ahora que sois unos expertos en la creación y manipulación de imágenes y controláis perfectamente la grabación y edición de audio, vamos a introducirnos en el tercer y último pilar del audiovisual, aquel que conjuga los elementos ya vistos hasta ahora: el vídeo. Dado que el video combina la captura de imágenes en movimiento con el audio, comparte con éstos algunos de los conceptos fundamentales que ya hemos visto, pero surgen algunos nuevos que debemos conocer para entender la grabación, edición y distribución de videos.




Resolución


Al igual que ocurre en la imagen de mapa de bits (bitmap), llamamos resolución a la cantidad de píxeles que componen un video. Cuanto mayor sea la resolución, más nítida y detallada se verá la imagen, siendo también mayor el espacio necesario para almacenarla. La resolución se determina por la relación entre el número de píxeles en los que se divide la pantalla en vertical y horizontal. Por ejemplo, un video con resolución 1920x1080, o comúnmente llamada 1080p, indica que su imagen está formada por 1920 columnas de píxeles y 1080 filas de píxeles.


resoluciones

Resoluciones más comunes en cine y televisión



resoluciones youtube

Resoluciones utilizadas por Youtube




Bitrate


El bitrate o flujo de datos es la cantidad de datos que se usan para representar un segundo de video. Se mide en bits por segundo (bps) y a mayor bitrate, mayor calidad de video obtendremos y mayor peso del archivo.

La relación bitrate/resolución define la calidad de los archivos y debe buscarse un equilibrio entre ambas. De nada sirve tener un archivo de poca resolución con un bitrate muy alto: ocupará mucho espacio y se verá poco definido. De forma similar, un archivo de mucha resolución y poco bitrate tendrá un aspecto difuso y pixelado.


Comparativa de tamañoy calidad de imagen a misma resolución



Formatos de vídeo (códecs y contenedores)


El formato de video es el tipo de archivo que se utiliza para almacenar el audio y el video y viene definido por el códec y el contenedor:

Códec: es un algoritmo que se utiliza para codificar y decodificar el audio y el video, es decir, cómo se comprime y se descomprime la información. Existen diferentes códecs para diferentes formatos de vídeo y cada uno tiene sus propias características y requisitos de rendimiento. Algunos de los más comunes incluyen H.264, MPEG-2 y VP9 en video y los ya mencionados MP3 y WAV en audio. La eficiencia de un códec viene dada por su capacidad para mantener la calidad de imagen y sonido haciendo uso de un bitrate menor.

Contenedor: también conocido como encapsulado, es un archivo que almacena el video, el audio y otros datos, como subtítulos y metadatos. El nombre de los contenedores suele definirse por la extensión de archivo que utilicen y entre los más habituales tenemos el MP4, Matroska (*.mkv), MXF, Quicktime (*.mov o *.qt), MPEG o AVI.


Así, el formato de un video consta de un contenedor que incluye diferentes tipos de contenido multimedia, cada uno de ellos codificado con un códec particular. Por ejemplo, podemos tener una película en formato MP4 con una pista de video en H.264, sonido en MP3 y dos pistas de subtítulos. Pero cada contenedor tiene sus propias especificaciones en cuanto a elementos multimedia y códecs soportados.


tabla codecs

Tabla 1: Comparativa de formatos contenedores y codecs de vídeo soportados


tabla codecs audio

Tabla 2: Comparativa de formatos contenedores y códecs de audio soportados



Relación de aspecto

Es la proporción entre el ancho y la altura de una imagen o un video y se expresa con la fórmula altura de la imagen/anchura de la imagen. Por ejemplo, las antiguas televisiones de tubo tenían una relación de aspecto 4:3 (o 1,33) y las actuales 16:9 (o 1,78). En el video digital se puede calcular dividiendo los píxeles horizontales por los verticales (una resolución 1920x1080 tiene una proporción 16:9 o 1,77). Algunas de las relaciones de aspecto más comunes son 4:3, 16:9 y 21:9. La relación de aspecto afecta la forma en que se ve una imagen o un video, por lo que es importante tenerla en cuenta al elegir el formato en el que queremos grabar o editar video.


aspect ratio

Así se visualizan diferentes relaciones de aspecto en un monitor o televisión actual de formato 16/9


aspect ratio 02

Formatos de pantalla más comunes en cine y televisión 


Todos estos formatos de ejemplo tienen una relación de aspecto horizontal, pero con la proliferación del consumo de contenidos multimedia en móviles, cada vez es más común ver vídeos en formatos verticales (por ejemplo, con resolucion 1080x1920 y formato 9/16) o cuadrado (con relación de aspecto 1:1).


Velocidad de fotogramas (o Frame rate)

Cantidad de fotogramas o cuadros que se muestran en un segundo de video. Se mide en "cuadros por segundo" o "fps" (frames per second en inglés). Cuanto mayor sea la tasa de cuadros, mayor sensación de suavidad y fluidez tendrá el movimiento. Aquí puedes ver una comparativa en vídeo de distintos framerates.

Cuando grabemos un vídeo es importante tener esto en cuenta, la duración será la misma pero a mayor número de fotogramas más natural será el movimiento y mayor peso tendrá el archivo resultante. 



La tasa de cuadros también puede afectar la duración de un video. Por ejemplo, si grabamos un video a 30 fps y lo reproducimos a 60 fps, el video se reproducirá más rápido y durará la mitad del tiempo. Por otro lado, si lo reproducimos a 15 fps, el movimiento será más lento y la reproducción durará el doble del tiempo (es este caso, nuestro reproductor o editor de video lo que hace es duplicar los fotogramas existentes o generar fotogramas intermedios mediante un sistema de interpolación).

Este recurso se usa habitualmente para el efecto de cámara acelerada o lenta, como por ejemplo este vídeo, que se ha grabado a 1000fps para capturar mucha información y que al exportarse a 60fps para subirse a Youtube da como resultado un movimiento completamente fluido. En éste otro caso se puede ver una comparativa de distintos ralentizados y sistemas de interpolación aplicados a un clip a 24fps y cómo el movimiento no queda fluido del todo o se generan defectos en la imagen por la falta de información.

Por tanto, a la hora de grabar y editar nuestros vídeos es importante tener en cuenta a qué velocidad de fotogramas grabamos y configurar correctamente nuestro programa de edición.

frames_segundo

Existen diferentes estándares de tasa de cuadros en diferentes partes del mundo y dependiendo del sistema de grabación/captura. Por ejemplo, en países como Estados Unidos, la televisión empezó a transmitir en el sistema NTSC a 30 fps (pasando a 29,97 fps al introducirse el color) debido a que por una cuestión técnica era más compatible con su sistema eléctrico, que funciona con una frecuencia de 60Hz. En Europa y otros países cuya frecuencia eléctrica es a 50Hz, se estableció el sistema PAL, que se reproduce a 25 fps.


buster_cameraEn el cine mudo, que se capturaba y proyectaba a mano, la velocidad oscilaba entre 16 y 24 fps, variándola en ocasiones para transmitir distintas sensaciones al espectador o incluso para hacer más cortas las sesiones. Esta es la razón de que las películas de esa época tengan esa sensación de movimiento tan característica. 
Con la llegada del sonido y los problemas técnicos y de percepción que suponían estos cambios de velocidad, se estableció el estándar a 24 fps.

Cuando las películas empezaron a emitirse en TV y posteriormente a editarse en VHS y DVD, tuvieron que adaptarse a los equipos PAL y NTSC que tenía la gente en sus casas, lo que obligó a las productoras a realizar versiones de sus películas a 23,976 fps, compatibles con NTSC y a 25 fps en países con normativa PAL. Esa es la razón de que la misma película editada en DVD en un país PAL dure aproximadamente un 4% menos que en un país NTSC.

En las últimas décadas, con la digitalización de la grabación y reproducción de vídeo y tecnologías como internet o los teléfonos móviles, las limitaciones en cuanto a la velocidad están desapareciendo y cada vez es más habitual la creación de contenido audiovisual a 50/60 fps.