Los formatos de vídeo

Técnicas de grabación y soportes de almacenamiento
  • Xavier Bonet

  • Francesc Martí Pérez

PID_00258150
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea este eléctrico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita del titular de los derechos.

Introducción

En este módulo analizaremos las distintas técnicas (negativo, cinta magnética, formatos magneto-ópticos, etc.) que se han utilizado y que aún se utilizan para la grabación, la distribución y el almacenamiento de material audiovisual. El propósito es observar de qué manera han evolucionado cada una de las técnicas y ver cómo estas han impactado sobre diversos ámbitos del sector audiovisual.
Es importante destacar que todas ellas han tenido un gran protagonismo en cada uno de los sectores (cinematografía y fotografía, vídeo profesional, vídeo doméstico, etc.), aunque hay que observar que tienden a desaparecer para dar paso a los formatos destinados a almacenar datos digitales, bien mediante discos duros, bien mediante memorias de estado sólido.
Respecto a la metodología, esta asignatura tiene una dimensión teórica importante y, a su vez, está reforzada con una serie de actividades pensadas para facilitaros la adquisición de las competencias planteadas.
Para tener una visión global de la dimensión de los temas tratados, es muy importante que contrastéis y busquéis ejemplos de las cuestiones planteadas. Por esta razón, la mayoría de los ejercicios planteados tienen como objetivo que busquéis ejemplos que os permitan visualizar, sobre dispositivos reales, los conceptos explicados.
Por último, es importante que, para contrastar los datos explicados en los apuntes, consultéis los sitios web de algunos de los fabricantes de los formatos estudiados.

Objetivos

Los principales objetivos de este módulo son los siguientes:
  1. Introducir y analizar el conjunto de formatos de vídeo que durante años se han utilizado, sobre todo en el ámbito profesional.

  2. Presentar una visión general de las técnicas y los procesos más utilizados, bajo las cuales se basan los formatos de almacenamiento audiovisual.

  3. Analizar en profundidad los parámetros más destacables de cada uno de los formatos más comunes en la actualidad.

  4. Adquirir una visión global de cuál ha sido la evolución de las técnicas.

  5. Ser capaz de comprender y analizar las posibilidades de un formato a partir del análisis de sus parámetros técnicos.

Estos objetivos están relacionados con las siguientes competencias de la asignatura:
C. Capacidad para diferenciar las opciones factibles de las que no lo son en un estudio de especificaciones de un proyecto, sistema o tarea.
E. Capacidad para escoger con criterios fundamentados entre vídeo analógico y digital en una situación concreta.
F. Capacidad para editar y comprimir un vídeo digital de manera eficiente y eficaz.
Y con las competencias generales del grado siguientes:
4. Capacidad para adaptarse a las tecnologías y a los entornos futuros actualizando las competencias profesionales.
5. Distribuir contenidos multimedia de manera eficiente a través de las diferentes plataformas disponibles (web, móvil, televisión digital, etc.).
6. Atender adecuadamente consultas sobre proyectos, tecnologías y mercado de productos multimedia evaluando de forma precisa el entorno de aplicación, los recursos y las alternativas tecnológicas disponibles.
11. Ser capaz de analizar un problema en el nivel de abstracción adecuado a cada situación y aplicar las habilidades y conocimientos adquiridos para abordarlo y resolverlo.
22. Atender adecuadamente consultas sobre proyectos, tecnologías y mercado de productos multimedia evaluando de manera precisa el entorno de aplicación, los recursos y las alternativas tecnológicas disponibles.

1.Introducción histórica

En los últimos siglos, el hombre moderno se ha visto en la necesidad de encontrar técnicas que le permitan plasmar la realidad mediante una forma de ver el tiempo, mediante la ayuda de las cámaras y no de la expresión artística manual, como habían hecho sus antecesores.
Los orígenes de la fotografía se remontan al principio del siglo XIX, cuando, en el año 1816, el científico francés Nicéphore Niepce fue capaz de retener sobre una emulsión de sales de plata la primera imagen. De todas formas, la primera muestra de una imagen captada mediante un sistema fotográfico corresponde al año 1826, cuando el mismo científico fotografió desde su habitación, con una cámara oscura, Vista desde la ventana de Le Gras (figura 1).
Figura 1. Nicéphore Niepce. Vista desde la ventana de Le Gras
Muestra de la primera imagen conservada, en la que se ha utilizado un proceso fotoquímico en la captación. Fuente: Wikipedia
Muestra de la primera imagen conservada, en la que se ha utilizado un proceso fotoquímico en la captación. Fuente: Wikipedia
En la actualidad, la utilización de material fotosensible para la captación de imagen esta llegando al final de su existencia, ya que es muy poca la gente que utiliza el negativo como soporte para la captación de imagen y, en el caso del cine, cada vez son menos los directores que trabajan con el formato de 35 mm.
A finales de la primera década del siglo XXI, las escuelas de cine ya empiezan a estar equipadas con cámaras de cine digital, y las nuevas generaciones de directores de cine aprenden todo el proceso cinematográfico basado en un circuito íntegramente digital.
De todos los sistemas de almacenamiento de imagen, aquel que abandonó primero la captación sobre negativo fue la cámara de vídeo, que pasó del ámbito doméstico, (del negativo de 8 mm) a las primeras cámaras de vídeo que grababan en vídeo 8, VHS-C o Hi8. En paralelo, empezaron a aparecer los primeros formatos de grabación en vídeo estacionario, como el vídeo 2000, Betamax, VHS y el S-VHS.
En el sector profesional, a mediados del siglo XX, también aparecieron una serie de formatos que fueron sustituyendo progresivamente al negativo cinematográfico. Los primeros fueron el formato cuádruplex, el pulgada B o segmentado B, el pulgada C, el U-Matic y, posteriormente, el Betacam, que se convirtió en el último antecesor de los formatos de vídeo profesionales digitales.
Durante los años noventa y la primera década del siglo XXI, los formatos de vídeo han pasado, tanto en el ámbito doméstico como en el profesional, de la grabación analógica a la grabación digital. Ha sido, precisamente, como consecuencia del proceso de digitalización cuando han aparecido técnicas de compresión de datos que permiten controlar la calidad de vídeo final. Actualmente la mayoría de los formatos de grabación en cinta domésticos y profesionales graban los datos de vídeo después de haber aplicado un proceso de compresión. Lógicamente, el factor de compresión es menor cuanto mayor es la calidad de vídeo deseada, y esto se traduce en un incremento del ancho de banda final. Otra de las consecuencias del proceso de digitalización es la desaparición progresiva de los formatos de grabación en cinta y la incorporación de una creciente cantidad de sistemas de grabación sobre soportes de acceso aleatorio, como es el caso de las memorias de estado sólido.
Desde el primer sistema de grabación digital en cinta hasta la actualidad han surgido más de una treintena de formatos distintos, sin que se haya definido en el mercado un único formato común. Otro campo que ha sufrido una importante transformación es el de la fotografía, que en esta última década ha cambiado el negativo de 35 mm por un sensor electrónico capaz de captar la imagen y transformarla en datos que se almacenan digitalmente sobre una memoria.
El último de los ámbitos que están abandonando el celuloide para adaptarse a los nuevos sistemas de tratamiento de imagen digitales es, precisamente, aquel que requiere mayor ancho de banda para gestionar la información: el cine. Actualmente, existen en el mercado múltiples formatos capaces de grabar vídeo con una resolución de imagen más o menos equivalente a la resolución del negativo cinematográfico, y la clara tendencia del mercado actual es la de ir incorporando progresivamente estos nuevos sistemas.

1.1.Ejercicios sobre formatos

Ejercicio 1
Realizad una tabla donde aparezcan, cronológicamente, todos los formatos propuestos, e indicad su fecha de aparición en el mercado, si utilizan tecnología celuloide, analógica o digital y la resolución de imagen.
Resolución de una imagen
En los sistemas digitales, la resolución de imagen queda determinada por la cantidad de píxeles que tiene cada imagen. En cambio, conocer la resolución en un sistema de vídeo analógico, no es tan sencillo. La mayoría de los formatos de vídeo analógicos en Europa tienen 575 líneas ubicadas una encima de otra, pero la cantidad de columnas (o lo que sería el equivalente a la cantidad de píxeles horizontales en una imagen digital) no corresponde a un único valor común a todos los formatos. Es precisamente este valor el que determina la calidad del formato. O sea, que todos los sistemas de vídeo analógicos en Europa tienen la misma cantidad de líneas (575 filas) y distinta cantidad de columnas, en función del formato. En el parámetro resolución de la tabla que tenéis que completar, debéis indicar la cantidad de líneas equivalentes (columnas) que es capaz de soportar el formato.
En celuloide, al trabajar con partículas fotosensibles, no se puede calcular la resolución de la imagen de forma cuantitativa, aunque hay quien se atreve a hacer aproximaciones de la resolución equivalente en píxeles que tiene el negativo. De todas formas, en el cine digital, las cámaras captan la imagen mediante un sensor CCD y en este caso sí se tiene una resolución conocida.
Dado que es importante poder ver de qué manera se han ido implementando las nuevas tecnologías en cada ámbito, deberéis modificar el color de la celda según la pauta siguiente:
06524_m7_002.gif
En el listado que os proponemos no aparecen todos los formatos de captación de imagen que han existido; tan solo aparecen aquellos que son más destacables, bien por sus cualidades tecnológicas, bien por su elevado nivel de penetración en el mercado.
Tabla 1
N.E: No existe ninguna resolución asociada.
N.E: No existe ninguna resolución asociada.
En la tabla 1 tenéis un ejemplo de una parte de la tabla que debéis completar en el ejercicio basándoos en el listado propuesto:
  • Formatos de fotografía:

    • Leica 1929

    • Kine Exakta

    • Nikon D1

  • Formatos de vídeo:

    • Cuádruplex

    • Pulgada B o Segmentado B

    • VHS

    • Betamax

    • vídeo 8 mm

    • S-VHS

    • Hi 8

    • U-Matic

    • Betacam SP

    • D1

    • D5

    • Betacam digital

    • DVD

    • DV y mini DV

    • DV Cam

    • DVC Pro 25

    • XDCAM

    • DVC Pro 50

    • Betacam SX

    • Betacam IMX

    • Digital-S

    • Blu Ray disc

    • HDV

    • Digital-S HD

    • HD-D5

    • HDCAM

    • HDCAM SR

  • Formatos de cine:

    • Súper 8

    • 16 mm

    • 35 mm

    • Arri D20

    • Panavision Genesis

    • DALSA

    • RED ONE

2.Introducción a las distintas técnicas y soportes de grabación

Desde la aparición del celuloide hasta la actualidad, han existido múltiples técnicas de grabación y soportes de almacenamiento de material audiovisual. Cada uno de ellos tiene unas propiedades que lo caracterizan y lo hacen idóneo en función de cada aplicación.

2.1.Ejercicios sobre técnicas y soportes de grabación

Ejercicio 1
A partir del listado siguiente (tabla 2), investigad y relacionad (con las opciones que os proponemos) qué tipo de tecnología de almacenamiento utiliza cada uno de los formatos propuestos.
Tabla 2

Formatos

Técnicas de grabación

DAT (digital audio tape)
Pen drive
Compact disc
Minidisc
DV
Blu Ray disc
Disco duro
Tarjeta SIM

Soporte magnético
Soporte óptico
Soporte en estado sólido
Soporte magneto-óptico

3.Soportes magnéticos

3.1.Introducción al magnetismo y al electromagnetismo

De todos son conocidas las características de los materiales magnéticos. Sabemos que son capaces de generar una fuerza a su alrededor (denominada campo magnético) capaz de afectar a aquellos objetos que se encuentren en su interior.
Los campos magnéticos se pueden representar mediante unas líneas que nos permiten definir la fuerza, dirección y sentido del campo en cualquier punto del espacio. Estas líneas se denominan líneas de campo o líneas de flujo magnético.
Figura 2. Esquema de distribución de las líneas de campo magnético en un imán
Figura 2. Esquema de distribución de las líneas de campo magnético en un imán
Algunas de las propiedades más interesantes de los materiales magnéticos son las siguientes:
  • Siempre mantienen la misma estructura: existen dos polos, el positivo y el negativo, los cuales siempre van emparejados y son inseparables. Entre ellos se genera un campo de atracción.

  • Las líneas de campo de los materiales magnéticos van del polo positivo al negativo.

  • Las partículas con el mismo signo de carga se repelarán y las que sean de distinta carga se atraerán.

  • El flujo magnético es la cantidad de líneas de fuerza que forma el campo magnético por unidad de superficie, de manera que cuanto mas unidas estén las líneas magnéticas, mayor flujo representarán.

Cuando una partícula con una carga eléctrica asociada se mueve con respecto a otra, genera un campo eléctrico cambiante. Esta variación siempre implica una variación de un campo magnético. Estos dos campos son proporcionales en amplitud, frecuencia e intensidad. Igualmente, la variación de un campo magnético siempre genera otro campo eléctrico y proporcional. Este fenómeno es conocido como electromagnetismo.
Figura 3. Esquema de distribución y orientación de los campos eléctricos respecto de los magnéticos en un rayo de electromagnetismo
Figura 3. Esquema de distribución y orientación de los campos eléctricos respecto de los magnéticos en un rayo de electromagnetismo

3.2.Proceso de grabación en cinta

La composición de una cinta se puede definir como un soporte (habitualmente de poliéster) recubierto con una fina capa de pequeñas partículas férricas, como si de pequeños imanes se tratase; o sea, con la polaridad (polo positivo y polo negativo) que los caracteriza. Estas partículas se encuentran adheridas al soporte mediante un material aglutinante que se encarga de permitir que las partículas férricas puedan girar sobre sí mismas sin llegar a desengancharse del soporte.
Figura 4. Esquema de distribución de las partículas magnéticas sobre una cinta, en función de la influencia de un campo magnético
Figura 4. Esquema de distribución de las partículas magnéticas sobre una cinta, en función de la influencia de un campo magnético
En el proceso de grabación de una cinta, la señal que se desea grabar genera un campo magnético en el cabezal de grabación. Si se pasa la cinta bajo la influencia del campo magnético, la orientación de las partículas variará en función de la intensidad y de la dirección del campo. La estructura de colocación de las partículas sobre la cinta siempre dependerá de la amplitud y de la frecuencia del campo magnético inducido por las variaciones del voltaje en el cabezal.
En el ciclo de lectura de una cinta, el proceso es inverso al de grabación; en este caso quien genera el campo magnético es la propia disposición de las partículas sobre la cinta. Cuando el cabezal de lectura recibe el pequeño campo magnético que generan las partículas de la cinta que van pasando por delante, se encarga de captar y transformar el campo magnético en electricidad, para así poder enviarla rápidamente a una etapa de amplificación. De esta forma, la señal queda lista para su posterior procesado.
Existen dos configuraciones de grabación que dependen básicamente del ancho de banda de los datos que deseamos grabar. En la primera, el cabezal se encuentra fijado en la estructura del grabador y tan solo se mueve la cinta.
Esta estructura es la que se ha utilizado siempre en las cintas de casete o en las antiguas cintas de grabación en bobina abierta para aplicaciones de audio profesional.
Hay que observar que, en este caso, el máximo ancho de banda que se deseará grabar es aquel que corresponde a la máxima frecuencia que el ser humano puede oír; o sea, 20.000 hercios. Pero el ancho de banda del vídeo analógico se encuentra habitualmente entre los tres y los diez megahercios, lo que implica que la velocidad relativa entre el cabezal y la cinta debe ser muy superior. Como se ha podido ver, los primeros formatos de vídeo profesionales requerían trabajar con grandes bobinas de cinta, que pasaba a muy alta velocidad por delante del cabezal, para poder así cumplir los requerimientos de ancho de banda del vídeo, pero eran altamente inestables y pesados y la cinta duraba muy poco tiempo. Por esta razón, se optó por diseñar un sistema que aumentara la velocidad relativa entre la cinta y el cabezal. Este sistema consistía en ubicar el cabezal en un tambor que permitía que el cabezal girara. Si el cabezal también se mueve girando a alta velocidad, la velocidad relativa entre la cinta y el cabezal aumenta enormemente y, además, de una forma extremadamente precisa.
Figura 5. Diagrama de la disposición de una cinta con respecto a un tambor rotatorio mediante un enhebrado helicoidal
Figura 5. Diagrama de la disposición de una cinta con respecto a un tambor rotatorio mediante un enhebrado helicoidal
Utilizar un tambor rotatorio obliga a integrar los cabezales y enhebrar la cinta alrededor del tambor tantos grados como sea necesario, en función del número de cabezales, para conseguir que, en todo momento, alguno de ellos se encuentre en contacto con la cinta. De no ser así, se perdería información. Habitualmente, la cinta se encuentra en contacto con el tambor en más de 180°. Λógicamente, nunca se pueden superar los 360°, ya que la cinta que llega al tambor podría entrar en contacto con la cinta que sale.
Para que lo descrito se pueda llevar a cabo, es necesario utilizar un enhebrado helicoidal alrededor del tambor, lo que permitirá tener siempre un cabezal en contacto con la cinta y evitará que, en algún momento, un cabezal grabe sobre la información que ha grabado el cabezal anterior. Este tipo de enhebrado genera un patrón magnético sobre la cinta, donde las pistas de vídeo quedan situadas diagonalmente. Esta técnica es muy apropiada, ya que permite aprovechar al máximo la superficie de la cinta y, además, reduce la velocidad de la cinta.
Figura 6. Disposición de las pistas de vídeo, audio y control sobre la superficie de una cinta magnética
Figura 6. Disposición de las pistas de vídeo, audio y control sobre la superficie de una cinta magnética
Al utilizar una velocidad de desplazamiento de cinta inferior, el volumen de cinta necesario es mucho menor, lo que se traduce en la posibilidad de diseñar cintas de dimensiones más reducidas. Esto permite, en consecuencia, diseñar cámaras de vídeo de dimensiones cada vez menores.
Es importante observar cómo, en el caso de la cinta, se pueden grabar tanto señales analógicas como señales digitales.
Al fin y al cabo, desde un punto de vista físico, las partículas magnéticas de la cinta quedan distribuidas en múltiples orientaciones en el caso de una señal analógica, o en tan solo dos sentidos en el caso de la señal digital, que son aquellos que corresponden al cero y al uno lógicos. De todas formas, el resto de formatos de grabación que se estudiarán a partir de ahora, serán íntegramente para aplicaciones digitales.

3.3.Proceso de grabación en disco duro

3.3.1.Estructura mecánica del disco duro
El disco duro, al igual que la cinta, basa el proceso de grabación enteramente en el magnetismo. La filosofía de grabación y reproducción en disco duro es prácticamente igual a la de grabación en cinta, ya que se sigue teniendo un soporte lleno de partículas férricas y un conjunto de cabezales encargados de generar y captar campos magnéticos.
Desde el punto de vista estructural, el disco duro está formado por una serie de discos, entre los que hay una pequeña separación, en un compuesto de vidrio, cerámica o aluminio, recubiertos por una fina capa de una aleación metálica. Los discos están unidos a un eje central, y este a un motor que los hace girar a una velocidad constante de entre 4.200 y 15.000 rpm. Los discos tienen normalmente dos caras que pueden usarse para el almacenamiento de datos, aunque habitualmente suele reservarse una de las caras para almacenar información de control.
Figura 7. Esquema de la disposición de los cabezales de lectura y grabación en un disco duro
Figura 7. Esquema de la disposición de los cabezales de lectura y grabación en un disco duro
Sobre cada uno de estos discos hay un cabezal dual (en algunos casos hay hasta dos cabezales duales); o sea, un cabezal capaz de leer y escribir información que, soportado por un brazo mecánico, se mueve transversalmente a una velocidad muy elevada y a pocas micras de distancia de la superficie del disco, sin llegar a tocarlo nunca.
3.3.2.Distribución de los datos sobre el disco
Los datos se distribuyen magnéticamente en el disco siguiendo una estructura que se divide en cuatro elementos:
  • Pistas. Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas se mueven entre la pista más externa o pista cero a la más interna, de manera que la pista es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura o escritura.

  • Sectores. La unidad digital útil más pequeña, en lo que respecta a la memoria, es el byte, que corresponde a 8 bits. La mayoría de los discos duros almacenan la información en agrupaciones de bytes denominadas sectores. La mayoría de los discos duros usan sectores de 512 bytes, de manera que aquellas pistas más cercanas al centro del disco posiblemente tan solo contengan un solo sector. En cambio, aquellas pistas que se encuentren más alejadas del centro podrán contener mayor cantidad de sectores, dado que las pistas son más grandes.

  • Cluster. Un cluster es un conjunto contiguo de sectores que crean la unidad más pequeña de almacenamiento de un disco. En función del tamaño de los archivos, se utilizaran más o menos clusters. De todas formas, si un archivo es más pequeño que el cluster, este no podrá llenarse con datos de otro archivo; es decir, que queda desaprovechado. El tamaño de los clusters depende del sistema de formateo del disco (FAT32, exFAT, NTFS, HFS+, ext2, ext3, ext4, etc.).

  • Cilindros. Los cilindros corresponden a aquel conjunto de pistas de distintos discos que se encuentran a la misma distancia del centro. En el caso de que el disco tenga las dos caras útiles, cada par de pistas equidistantes del centro formarán parte del mismo cilindro. En este caso, los dos cabezales de cada disco siempre se encontrarán en el mismo cilindro, ya que estos utilizan el mismo soporte mecánico.

4.Soportes ópticos de almacenamiento

Algunos soportes, como la cinta, permiten almacenar datos tanto analógicos como digitales. En los años ochenta, en el sector profesional ya se utilizaban formatos de grabación de cinta, como el digital audio tape (DAT), para grabar audio digitalmente. Sin embargo, en el caso de los soportes ópticos, tan solo se pueden almacenar los datos digitalmente.
Los sistemas de almacenamiento ópticos provocaron en los años ochenta una gran revolución, ya que con el compact disc se introdujo la tecnología digital en el ámbito doméstico y, desde entonces, han aparecido en el mercado una gran cantidad de sistemas de almacenamiento óptico, como el CD, DVD, HD-DVD, Blu Ray Disc, Ultra HD Blu-ray, etc., que se han ofrecido como alternativas muy competitivas para la grabación de datos, y de audio y vídeo en el mercado doméstico.
La base del funcionamiento en un sistema óptico se sustenta en la relación que hay entre una pequeñas perturbaciones ubicadas en la superficie del disco metálico y la alteración de las características de un rayo láser al impactar contra estas perturbaciones.
Observad la estructura física de un disco óptico en la figura 8. En este caso se tiene una base de policarbonato plástico que prácticamente cubre la totalidad del grosor del disco. Durante el proceso de fabricación, sobre este plástico se impresiona o se estampa una gran cantidad de pequeños microsurcos, que representan los datos 0 y 1 lógicos, situados de forma continua, unos a continuación de los otros. La capa de policarbonato plástico se cubre con una fina capa metálica capaz de reflejar la luz del láser. Esta capa metálica también se cubre con una capa protectora. Encima de la capa protectora puede situarse la capa de la etiqueta del disco.
Figura 8. Esquema de la sección de un soporte de almacenamiento óptico
Figura 8. Esquema de la sección de un soporte de almacenamiento óptico
Tal como lo hacían los antiguos discos de vinilo, los discos compactos codifican toda la información del disco de manera secuencial formando una espiral, de modo que el lector láser, a la inversa de los vinilos, empieza por leer los datos del interior del disco y lentamente se va desplazando de forma lineal hacia el exterior del disco. Esto significa que la velocidad de giro del disco va disminuyendo a medida que el lector se aleja del centro del disco, para mantener un flujo de lectura de datos constante. En realidad, es el propio flujo de datos el encargado de controlar la velocidad de giro constante, de manera que cuando se leen más datos de los previstos, una señal de control reduce la velocidad de giro del disco y viceversa.

4.1.Proceso de lectura de un disco óptico

En el proceso de lectura de un disco óptico intervienen un haz láser, un conjunto de lentes y espejos y un grupo de sensores, siguiendo ciertos pasos.
Figura 9. Distribución de lentes, prismas y sensores que intervienen en el proceso de lectura de un disco óptico
Figura 9. Distribución de lentes, prismas y sensores que intervienen en el proceso de lectura de un disco óptico
Los pasos son los siguientes:
Primer paso. El haz de luz láser sale del emisor y atraviesa la rejilla de difracción y la lente colimadora. El propósito de la lente colimadora consiste en seleccionar tan solo aquellos rayos de luz que tengan un mismo plano de polarización. De esta forma, de la lente tan solo sale un conjunto de rayos que tienen el mismo plano de polarización, mientras que los rayos que no la cruzan son absorbidos por la propia lente.
En la lente colimadora, el haz de luz se divide en tres sub-rayos, uno central (de mayor tamaño), que será el encargado de leer los datos del disco, y dos laterales (más pequeños) que se utilizaran para asegurar que el haz central lee correctamente sobre la pista que le corresponde. O sea, los rayos laterales tienen como propósito evitar que el haz central pueda saltar a una pista cercana por error. A este concepto se le denomina seguimiento de tracking.
Segundo paso. Los tres rayos cruzan el prisma de polarización sin experimentar ningún efecto, de momento.
Tercer paso. En la lente de polarización, todos los rayos experimentan un giro de 45° sobre su plano de polarización.
Cuarto paso. Después de que los rayos hayan rebotado en el espejo, se dirigen a la lente de enfoque, que hará converger todos los rayos en una región mucho más reducida y forzará que el rayo central se dirija sobre la pista de lectura y que los dos rayos laterales se proyecten parcialmente cada uno a las dos bandas de la pista de lectura.
Hay que recordar que la superficie del disco está formada por picos y valles que representan los datos digitales grabados. Cuando el rayo central incide sobre un valle o cero lógico, este se refleja en el disco y forma un ángulo de reflexión distinto al ángulo de incidencia, de manera que esta luz se dispersa. Cuando el rayo lee un pico o uno lógico, el ángulo de incidencia será igual al reflejado, por lo que el rayo retornará por el mismo camino por el que llegó, pero en sentido opuesto.
Quinto paso. La luz retorna por el mismo camino que había seguido en el proceso de ida al lector, pasando por el espejo y de nuevo por la lente de polarización, que volverá a aplicar un giro en el mismo sentido al plano de polarización de los rayos. Observad que los rayos que tenían originalmente un plano vertical después de haberles aplicado los dos giros de 45° (uno de ida y otro de vuelta) ahora quedarán totalmente horizontales.
Sexto paso. Una vez cruzada la lente de polarización, el prisma de polarización hace que los rayos reboten y se proyecten sobre la lente cilíndrica. Esto sucede porque el prisma tan solo permite que lo crucen aquellos rayos de luz que tienen un plano de polarización determinado; aquellos que no lo tienen rebotan como si de un espejo se tratara. Por esta razón, en el trayecto de ida, la luz cruzó el prisma sin ningún problema y, en cambio, una vez aplicado el doble giro de 45°, la luz rebota en el prisma sin poder cruzarlo.
Séptimo paso. El propósito de la lente cilíndrica es focalizar los tres rayos de luz (el central de lectura y los dos laterales de seguimiento de tracking) sobre un grupo de fotorreceptores.
Octavo paso.Los fotorreceptores son dispositivos capaces de generar un voltaje eléctrico proporcional a la cantidad de luz que ha incidido sobre ellos.
Existen distintas distribuciones de fotorreceptores en un lector de discos ópti-cos, y la utilización de una u otra depende únicamente del fabricante. A continuación os presentamos una de las más habituales:
Figura 12. Esquema de la disposición de sensores lectores y de tracking en un lector de disco óptico
Figura 12. Esquema de la disposición de sensores lectores y de tracking en un lector de disco óptico

4.2.Seguimiento de tracking

Para asegurar que el haz lector se encuentra constantemente leyendo la pista que le corresponde, y con el fin de evitar que se produzcan saltos de pista no deseados, existen dos rayos que se crean en la lente colimadora que sufren los mismos procesos y siguen el mismo trayecto que el rayo de luz central. Estos dos rayos impactan contra la superficie del disco y retornan sobre los fotorreceptores de seguimiento de tracking. En realidad, es como si fueran un par de sensores que se encuentran en cada una de las dos bandas de una línea. Cuando uno de los sensores se sobrepone más que el otro sobre la pista, los sensores lo detectan, de modo que se corrige la posición automáticamente. Precisamente, este sistema es el que permite que el lector pueda seguir correctamente todo el recorrido que tiene la pista espiral de un disco óptico.
Si el seguimiento de tracking es correcto, los haces laterales se proyectan de manera que la mitad de su superficie se encuentre sobre la parte lisa del disco y la otra mitad sobre la pista que contiene la información. Cuando el grupo de haces de luz sale por error de la trayectoria correcta, uno de los haces laterales tiende a dirigirse hacia la región lisa del disco, mientras que el otro haz tiende a proyectar la mayor parte de su luz sobre la parte de datos de la pista. Esto significa que la cantidad de luz rebotada sobre el disco es distinta en los dos rayos. Esta variación se ve reflejada en la cantidad de luz que recibe cada uno de los sensores de tracking. Con la diferencia de potenciales en cada uno de los fotorreceptores se puede dar la orden al brazo que soporta el conjunto óptico para que modifique su posición y corrija así la perdida de tracking.
Figura 13. Componentes que intervienen en la corrección automática de tracking en un lector óptico
Figura 13. Componentes que intervienen en la corrección automática de tracking en un lector óptico

4.3.Autofoco

El tamaño físico de un uno o un cero lógico sobre la superficie del disco puede ser de pocos nanómetros, en función del tipo de soporte utilizado. Esto significa que una pequeña modificación en la superficie del disco puede suponer una incorrecta focalización del láser sobre el disco y, consecuentemente, una interpretación de los datos errónea. Por eso es de vital importancia que la distancia entre la óptica de enfoque y la superficie del disco sea siempre constante.
Para garantizar la correcta focalización del láser sobre la superficie del disco se utiliza el fotorreceptor central, cuya función consiste en interpretar los datos que provienen de la lectura en el disco, de manera que según la intensidad lumínica que recibe interpreta un uno o un cero lógico.
El fotorreceptor central está formado por cuatro pequeños fotosensores (A, B, C y D). La lente cilíndrica tiene la capacidad de proyectar un círculo perfecto sobre los cuatro sensores cuando la distancia entre la lente de enfoque y la superficie del disco es la correcta. Y cuando, por error, esta distancia es modificada (debido a una irregularidad sobre la superficie del disco o a un desajunte del grupo ótico), en lugar de proyectar un círculo sobre los fotosensores, proyecta una elipse. En función de la pareja de sensores que reciban más luz, el lector podrá saber si se encuentra demasiado cerca o demasiado lejos de la superficie del disco. Para corregir estos pequeños errores de enfoque, los sensores envían una señal de control a una bobina que soporta la lente de enfoque para que la reubique en la posición correcta.
Figura 14. Distintas opciones de pérdida de foco en el sistema de lectura de un disco óptico
Figura 14. Distintas opciones de pérdida de foco en el sistema de lectura de un disco óptico

5.Soportes magneto-ópticos de almacenamiento

De los soportes magneto-ópticos, posiblemente el más conocido por el impacto comercial fue el minidisco, aunque las unidades ZIP también fueron relativamente populares. Dejado de distribuir en 2013, el minidisco fue un formato utilizado sobre todo en el ámbito de la radio, puesto que ofrecía una calidad de sonido óptima y una flexibilidad que no tenían los otros formatos.
Actualmente, los soportes magneto-ópticos han sido desplazados por otros soportes como las unidades de disco duro (HHD) y las unidades de estado sólido (SSD). De todas maneras, la tecnología magneto-óptica es una tecnología sobre la cual se continúa investigando y el reciente descubrimiento de un nuevo material –un nuevo tipo de perovskita catalogado como el primer fotoconductor magnético– podría servir de base para el desarrollo de una nueva generación de dispositivos magneto-ópticos de almacenamiento de datos más rápidos y eficientes y con un consumo de energía menor.
La característica principal de un formato magneto-óptico radica en que la grabación de los datos se realiza sobre un disco magnético, como si de un disco duro se tratara, pero con la propiedad que estos tan solo pueden ser grabados cuando la temperatura del material magnético es muy elevada. Esto significa que a temperatura ambiente es extremadamente difícil que, por la proximidad de un imán o de un campo electromagnético de elevada intensidad, se puedan borrar o modificar los datos grabados.
Físicamente, un formato magneto-óptico está formado por una base de policarbonato, a la que se le coloca encima un conjunto de dos capas dieléctricas con material magneto-térmico en el medio. Las tres capas se cubren con una fina capa metálica de aluminio que, a su vez, también será protegida por una última capa transparente ubicada en la parte superior.
Figura 15. Sección en la que se puede ver de la disposición de capas en un formato magneto-óptico
Figura 15. Sección en la que se puede ver de la disposición de capas en un formato magneto-óptico

5.1.Proceso de grabación

Existen distintas técnicas de grabación. La más habitual se basa en el proceso que describimos a continuación.
Existe una bobina que genera un campo magnético constantemente. Esta bobina se encuentra ubicada físicamente muy cercana al disco, pero el campo magnético que genera a temperatura ambiente no es suficiente para modificar la orientación de las partículas magnéticas del disco. Cuando se desea grabar un dato, un láser se enciende y calienta una pequeña región del disco hasta que este alcanza la temperatura de Courier (unos 180°C). En este momento, el material se vuelve mucho más sensible a campos magnéticos y, consecuentemente, las partículas del material magnético del disco se ven afectadas por el campo que genera la bobina, quedando así los datos grabados. Cuando el disco recupera la temperatura ambiente es muy difícil que un campo magnético pueda modificar la información almacenada.
Es decir, que desde el punto de vista físico, los datos se encuentran grabados en el disco sobre un soporte magnético, y para que estos puedan ser modificados se requiere de un importante cambio de temperatura.

5.2.Proceso de lectura

Como hemos visto, en los sistemas de grabación óptica es de vital importancia el plano focal del haz de luz. En el proceso de lectura en los formatos magneto-ópticos se utiliza una técnica muy parecida a la utilizada en los discos ópticos. En este caso, el láser sale del emisor, cruza un juego de lentes y espejos y, cuando este impacta con la región metálica del disco magneto-óptico, en función de la orientación de las partículas magnéticas en el soporte, el rayo rebotará con un plano de polarización u otro. Según el plano de polarización que adquiera una vez haya rebotado, este retornará hasta llegar a los sensores de lectura o no. Dependiendo de si este sensor recibe luz o no, podrá discriminar los datos como unos o ceros lógicos.

6.Sistemas de almacenamiento en estado sólido

El almacenamiento en estado sólido es un sistema de almacenamiento de datos basado en transistores integrados. Las unidades de estado sólido (SSD), las tarjetas SD o las P2 serían ejemplos de memorias en estado sólido, es decir, memorias sin partes móviles o mecánicas que usan chips semiconductores para almacenar datos de forma electrónica.
Hay muchas variantes de memorias en estado sólido; en función de su diseño, tienen unas características de rendimiento específicas. Dos de las variantes más utilizadas son las memorias flash y las RAM (como la SRAM o la DRAM).
La diferencia principal entre las memorias tipo flash y las RAM es que las memorias flash permiten almacenar los datos independientemente de que tengan alimentación. Estas memorias se denominan no volátiles. En cambio, las memorias RAM tan solo pueden almacenar datos mientras tienen alimentación, y en el momento en que dejan de estar alimentadas los datos se pierden. Este tipo de memoria se denomina volátil.
Durante años, las memorias en estado sólido de tipo RAM se han utilizado como memorias intermedias en los ordenadores gracias a su alta velocidad en la lectura de datos (tienen una latencia inferior a 10 nanosegundos). En la RAM se almacenan los datos que el ordenador utiliza más frecuentemente y, de este modo, se compensa la baja velocidad de lectura/escritura de los discos duros convencionales.
Al contrario que las memorias de tipo RAM, las memorias de tipo flash son memorias de tipo no volátiles regrabables. A pesar de tener una velocidad de acceso a los datos ligeramente inferior a las memorias RAM, su carácter no volátil y su eficiencia las han convertido en un elemento prácticamente imprescindible en muchos equipos informáticos de sobremesa, portátiles, cámaras de vídeo, cámaras fotográficas, teléfonos móviles, etc.
Este segundo tipo de memorias pueden usar la tecnología NOR o NAND. Las memorias NOR flash son memorias no secuenciales –se poden leer y escribir datos de forma aleatoria en lugares específicos de la memoria– y ofrecen un alto rendimiento en operaciones de lectura. Esto hace que sean unas memorias ideales para almacenar el código binario de programas, como los sistemas operativos de los teléfonos móviles o la BIOS de los ordenadores. En cambio, las memorias NAND flash –más baratas, más duraderas, con celdas más densas y con velocidades de escritura y borrado más rápidas que las memorias NOR flash– son memorias que leen y escriben en modo secuencial, usando bloques de datos o páginas. Simplificando un poco, podríamos decir que son memorias cuya función es equivalente a los discos duros magnéticos habituales. Las unidades de estado sólido (SSD), las tarjetas SD o las tarjetas P2 son memorias flash de tipo NAND.
Técnicas de fabricación
Básicamente, en memorias NAND flash hay dos técnicas de fabricación denominadas single level cell (SLC) y multilevel cell (MLC). La SLC tan solo es capaz de almacenar 1 bit en cada transistor, mientras que el sistema MLC es capaz de almacenar hasta 2 bits en cada transistor. De todas maneras, el SLC tiene la ventaja de que los chips son considerablemente más rápidos que los de la tecnología MLC, consumen menos, tienen más tiempo de uso y necesitan menos tiempo para acceder a los datos. Como contrapartida, al ser menos densos, la capacidad por chip es más pequeña y esto repercute en un precio considerablemente más alto de los dispositivos fabricados con este método.
Entrando un poco en detalle en alguno de los tipos de memorias NAND flash, las ya mencionadas unidades en estado sólido o solid state drive (SSD) ya hace tiempo que se han convertido en una alternativa –o un complemento– muy eficiente a los discos duros convencionales basados en la grabación magnética: ofrecen más velocidad de acceso a los datos, son mucho más robustas y son prácticamente inoíbles. De todas maneras, aunque el precio de las memorias SSD se ha ido moderando progresivamente, la relación precio/byte de capacidad continúa siendo mucho más grande en el caso de las memorias flash que en el caso de los discos duros convencionales, motivo por el cual no se espera que estos últimos acaben siendo sustituidos totalmente por las memorias SSD, como mínimo a medio plazo.
La variable precio también repercute directamente sobre las capacidades más habituales que podemos encontrar en este tipo de memorias. Aunque ya existen memorias SSD flash de 100 TB, las memorias estándar con una buena relación precio/capacidad tienen capacidades mucho más modestas y esto provoca que en muchos equipos informáticos las unidades en estado sólido y los discos duros coexistan para poder dar respuesta a las necesidades de almacenamiento de los equipos.
Además de en equipos informáticos, algunas cámaras de vídeo también incluyen una memoria interna en formato SSD. De todas maneras, las memorias en estado sólido más habituales que se pueden encontrar en cámaras de vídeo –a veces como único medio de almacenamiento, a veces como complemento de una memoria interna– son las tarjetas SD con sus variantes (SDHC, SDXC, microSD, microSDHC).
Además de las evidentes diferencias en forma y tamaño entre los SSD y las tarjetas SD, las tarjetas SD son memorias extraíbles, compuestas de un pequeño microcontrolador y de la memoria NAND, y están especialmente diseñadas para equipos portátiles (ordenadores, cámaras, teléfonos, etc.). La capacidad de estas tarjetas puede variar de 1 MB a 4 GB en tarjetas SD, de 2 a 32 GB en tarjetas SDHC y de 32 GB a 2 TB en tarjetas SDXC; muchas de las cámaras que actualmente graban sobre tarjetas SD flash incorporan varias ranuras para poder insertar diferentes tarjetas a la vez y aumentar así el tiempo de autonomía en la grabación.
Finalmente, algunas cámaras de vídeo profesional usan como memoria de almacenamiento tarjetas P2 de Panasonic (Profesional Plug-In), un sistema basado en una interfaz PCMCIA que contiene varias tarjetas SD en su interior. La capacidad de este tipo de tarjetas puede llegar a los 512 GB y, como también pasa con las cámaras basadas en tarjetas SD, las cámaras que adoptan este sistema también incorporan varias ranuras, aumentando así la capacidad de almacenamiento.

7.Formatos de grabación de vídeo digital

Una posible clasificación de los formatos de vídeo puede hacerse en función de la finalidad que tengan. Es decir, hay formatos de vídeo destinados a la captación (grabación), hay formatos destinados a la edición (intermedio), y hay otros que –debido a sus altas tasas de compresión– están pensados para usarse para distribuir vídeo en la red o para otros medios.
De todas maneras, esta división no es clara –todavía menos hoy en día, cuando los soportes de grabación en disco duro o las unidades de estado sólido facilitan la interacción entre cámaras, ordenadores y plataformas de publicación de vídeo– y un formato inicialmente diseñado para realizar una función acaba siendo implementado para realizar también otras tareas. Por ejemplo, la cámara HERO6 Black puede grabar con el códec HEVC, que podría ser catalogado como un códec de distribución de contenidos.
En este apartado, veremos algunos de los formatos de grabación de vídeo digital que históricamente han sido más importantes.

7.1.Conceptos previos

7.1.1.El código de tiempo o time code
Para el trabajo diario en vídeo, siempre ha sido necesaria la utilización de algún sistema de numeración que, de alguna forma, etiquete y por tanto permita identificar todos y cada uno de los fotogramas grabados.
En los primeros formatos de vídeo que aparecieron en el mercado se utilizaba una señal analógica sinusoidal que iba grabada en la cinta como referencia temporal. El propósito principal de esta señal era controlar y verificar que la velocidad de paso de la cinta por delante del cabezal de grabación y reproducción fuera la correcta. Esta señal también se utilizaba como referencia de un contador. Así, si se estaba reproduciendo una cinta desde el inicio, se podía saber en todo momento cuánto tiempo de reproducción había transcurrido. A esta señal se la denomina control track line (CTL). El principal inconveniente del CTL es que cuando se cambia la cinta o se hace un reset del contador se pierde la referencia en la numeración de cada fotograma.
La forma de solucionar esta limitación consiste en grabar sobre la cinta una señal digital que identifique de forma única cada uno de los fotogramas mediante un código. De esta manera, al tratarse de una señal digital específica para este propósito, cuando se coloca una cinta en el vídeo, el contador representa sin errores el código que corresponde a cada uno de los fotogramas. Por eso la numeración del código de tiempo se expresa en horas, minutos, segundos y fotogramas.
Figura 16. Ejemplo de un visor de código de tiempo
Figura 16. Ejemplo de un visor de código de tiempo
Existe dos tipos de código de tiempo en función, básicamente, de la forma en la que van grabados sobre la cinta de vídeo:
  • Longitudinal time code (LTC). Es el sistema digital definido por la SMPTE/EBU como herramienta para la enumeración de cada fotograma. Esta información se encuentra grabada longitudinalmente en la cinta, como si se tratara de una pista de audio.

  • Vertical interval time code. Es el sistema digital definido por la SMPTE/EBU como herramienta para la enumeración de cada fotograma. Esta información se encuentra grabada con la señal de vídeo en líneas del intervalo de borrado de pantalla.

7.1.2.Técnicas de compresión reversibles e irreversibles
Las técnicas de compresión han supuesto una auténtica revolución en el sector audiovisual. Desde su aparición, la cantidad de técnicas que han surgido ha sido espectacular por la calidad y eficiencia de muchas de ellas. Actualmente, más del 95% de las aplicaciones audiovisuales del mercado se utilizan tanto en el sector doméstico como en el profesional, y gracias a ellas, la sociedad ha tenido un acceso prácticamente ilimitado a aplicaciones y contenidos audiovisuales.
Se pueden clasificar las técnicas de compresión en función de si estas aportan pérdidas o no sobre el material. O sea, si una vez aplicado el proceso de compresión y descompresión, el material que se recupera es exactamente el mismo que en elorigen o si, por el contrario, este ha sufrido alguna pérdida.
Hay ciertos materiales que no puedes permitirse la licencia de sufrir ninguna pérdida, ya que de lo contrario quedarían del todo inservibles; por ejemplo, una aplicación informática (cualquier programa, base de datos, documento, etc.) debe comprimirse con técnicas de compresión reversibles o, lo que es lo mismo, sin pérdidas (lossless), ya que de no ser así, el archivo recuperado no se podría utilizar. En cambio una fotografía, un vídeo, el audio, etc., son tipos de archivos que dependiendo de su utilidad, pueden compensar al usuario en caso de que el material sufra una pérdida de calidad para que pueda ser utilizado. Las técnicas que se emplean en este caso son irreversibles; es decir, con pérdidas (lossy).
¿Cuándo se utilizan unas u otras? Si las irreversibles producen pérdidas, ¿por qué no se utilizan siempre las técnicas reversibles?
Las técnicas de compresión reversibles (como las que utilizan WinZip, WinRAR o DropSuaff) son muy útiles para reducir el tamaño de documentos o aplicaciones. De todas formas, el factor de compresión que se consigue es muy reducido (habitualmente del orden de 2:1, 3:1) y raramente se consigue superar un factor de 5:1. Esto significa que las técnicas reversibles no bastan para comprimir material audiovisual.
Ejemplo de compresión de vídeo
Un vídeo sin comprimir con resolución 2160 p (4K UHD), 60 fps y 24-bit (8 bits por canal de color) tiene un peso de 11,943936 Gbit por cada segundo de vídeo (24 × 3840 × 2160 × 60 = 11943936000 bits = 11943,936 Megabits = 11,943936 Gigabits). Si quisiéramos transmitir este vídeo en tiempo real en la red (streaming) a una velocidad de 50 Mbps, necesitaríamos comprimirlo con un factor de compresión aproximado de 240:1. Evidentemente, es imposible conseguir tasas de compresión de esta magnitud con técnicas de compresión reversibles, por lo que se tiene que sacrificar parte de la calidad del vídeo utilizando técnicas irreversibles. De todas maneras, dentro de un codificador de vídeo también se pueden encontrar técnicas reversibles e irreversibles trabajando conjuntamente.
7.1.3.Compresión espacial y temporal
Las primeras técnicas de compresión de imagen que aparecieron se basaban en la compresión espacial. Esto significa que analizan la imagen en función de sus dimensiones (altura y anchura) y, mediante un conjunto de técnicas, se consigue reducir el peso del archivo de la imagen. Estas técnicas son las que se utilizan en la codificación de imágenes fijas, como puede ser el caso de los formatos JPEG, GIF, TGA, etc.
Todos aquellos sistemas de compresión que basen la compresión a partir de un único ítem se llaman sistemas de compresión intra o intracuadro (intraframe).
Por ejemplo, una fotografía comprimida utiliza compresión intra, puesto que su compresión tan solo depende de la misma fotografía. Análogamente, si codificamos los fotogramas de un vídeo individualmente, sin tener en cuenta los otros fotogramas, también le estaríamos aplicando una compresión intraframe.
Muchos sistemas de compresión de vídeo, debido al elevado nivel de redundancia que hay en el contenido de los fotogramas consecutivos, utilizan la técnica de compresión temporal, inter o intercuadro (interframe). Por eso no es necesario codificar cada vez aquellos datos entre fotogramas consecutivos que son iguales, tan solo se codifica la información de un fotograma entero y, posteriormente, se codifican las pequeñas diferencias que puedan haber entre fotogramas próximos a este.
Figura 17. Compresión intraframe frente a compresión interframe
Figura 17. Compresión intraframe frente a compresión interframe
A pesar de que la codificación intraframe ocupa más espacio de almacenamiento que la codificación interframe, el sistema intra permite la máxima flexibilidad de edición del material original, ya que el editor de vídeo no necesita ir consultando constantemente fotogramas anteriores y posteriores para calcular cuál será el contenido de un fotograma dado –como sí pasa con el sistema inter. Además, con el sistema intra se obtienen mejores resultados al aplicar algunos efectos visuales o procesos como, por ejemplo, la corrección de color. Por lo tanto, se puede decir que, en general, los códecs intraframe son mejores para la edición de vídeo.
De todas maneras, se tiene que tener presente que en muchos casos tampoco se detectan diferencias significativas –ni en cuanto al nivel de rendimiento ni al de resultados– entre editar vídeo con codificación intra y hacerlo con codificación inter. De hecho, algunos expertos abogan por editar manteniendo la codificación del material original (aunque sea inter), para evitar tenerlo que volver a recodificar.
Los códecs MJPEG, Prores (Apple), DNxHD (Avid), ALL-I o Cinema DNG (Adobe) serían algunos ejemplos de códecs intraframe.
Del mismo modo, en general, podemos decir que los códecs interframe son más adecuados para distribuir vídeo, puesto que aplican factores de compresión más elevados y generan ficheros mucho menos pesados. Pero, de nuevo, se tiene que ser flexible con esta afirmación, pues algunos códecs intraframe –como el Apple Prores–, con factores de compresión bastante razonables, también se utilizan para distribuir contenidos.
Los códecs H.264, MPEG-4, MPEG-2, AVCHD, XDCAM o XAVC serían algunos ejemplos de códecs interframe.
Entrando un poco en detalle, los códecs interframe usan tres tipos diferentes de fotogramas: los fotogramas I, P y B.
Los fotogramas I, I-frames o keyframes contienen la información del fotograma entero. Cada uno de estos fotogramas es codificado y descodificado individualmente, sin necesidad de consultar otros fotogramas; por eso, reciben el nombre de fotogramas clave o intracode (de aquí proviene la «I»). De hecho, si todos los fotogramas de una película fueran I-frames, estaríamos hablando en realidad de compresión intraframe.
Los fotogramas P (predictivos), P-frames o delta-frames guardan la información del fotograma que ha cambiado en relación con el fotograma I o P anterior. En la figura 17 que acabamos de ver, todos los fotogramas que siguen al primer fotograma (el fotograma clave) serían P-frames. Como es lógico, normalmente estos fotogramas tienen menos información y requieren menos memoria que los fotogramas I.
Finalmente, los fotogramas B (bidireccional predictiva) son como los fotogramas P, pero, en vez de analizar las diferencias solo en relación con el fotograma I o P anterior, también analiza los cambios con el fotograma I o P posterior. Este tipo de fotogramas serían los que normalmente requieren menos memoria de los tres.
En la figura 18, podemos ver gráficamente estas relaciones entre los diferentes tipos de fotogramas. El grupo de fotogramas que hay entre dos I-frame consecutivos recibe el nombre de group of pictures (GOP) o grupo de imágenes.
Figura 18. GOP con dos P-frames y seis B-frames
Figura 18. GOP con dos P-frames y seis B-frames
Así pues, como resumen y simplificando un poco, podemos decir que los códecs intraframe son los más adecuados para editar, o para grabar y distribuir vídeo con gran calidad, y los códecs interframe son más adecuados para distribuir –grabar o almacenar– vídeo con un factor elevado de compresión.

7.2.Formatos D1, D2, D3 y D5

A finales de los años setenta y principios de los ochenta, en muchos ámbitos del sector audiovisual se planteaba la necesidad de encontrar algún sistema que permitiera grabar y hacer copias sucesivas sin que esto supusiera una pérdida de calidad en la imagen. Para conseguir este propósito, las empresas Sony y BTS presentaron en 1986 el primer formato de vídeo capaz de grabar la imagen y el sonido digitalmente sobre una cinta de 3/4 de pulgada.
En los años ochenta aún no existían las técnicas de compresión de imagen. Por eso el D1 era un formato que grababa vídeo en componentes (Y, R-Y, B-Y) sin ningún tipo de compresión y codificando las muestras a 8 bits. Esto suponía un elevadísimo ancho de banda (de 216 Mbits/s). Gestionar un volumen tan elevado de datos significaba que la circuitería que tenía que procesarlos debía ser muy potente y estable, con lo que el precio del aparato era desorbitado y pocas empresas podían permitírselo. Se trataba de un formato adecuado para aplicaciones de posproducción compleja en alta calidad como, por ejemplo, cabezales de TV, publicidad, animación, cine, etc.
Después del D1 aparecieron otros formatos de fabricantes como Panasonic o Ampex con unas características muy similares a las del D1. Algunos de ellos, como el D2 (de Sony y Ampex) y el D3 (de Panasonic) conseguían reducir en gran medida el ancho de banda total (a 142 Mbits/s), ya que en lugar de digitalizar una señal de vídeo en componentes, digitalizaban vídeo compuesto. Esto permitía simplificar la circuitería y reducir el precio del dispositivo.
En 1992, Ampex presentó el formato DCT (Digital Components Technology). Se trataba de un formato capaz de grabar vídeo en componentes, pero con el mismo ancho de banda que el D2 y el D3. Esto fue posible gracias a la posibilidad de aplicar, por primera vez, una pequeña compresión (2:1) a cada uno de los fotogramas.
Dos años más tarde, en 1994, Panasonic presentó otro formato, denominado D5, que era capaz de grabar en componentes sin compresión y aceptaba por primera vez escoger entre una relación de aspecto de 4:3 o de 16:9. Si se grababa en 16:9, las muestras se codificaban a 8 bits, pero si se grababa en 4:3, podía codificar cada muestra a 10 bits. Esto se traducía en un ancho de banda final de 303 Mbits/s.
Tabla 3. Parámetros del formato D1 (1986)

Parámetros

Especificaciones

Sistema

625-50 (entrelazado)

Fabricante

Sony y BTS

Anchura de la cinta

3/4 pulgada

Tipo de señal

Componentes ITU-601

Resolución

720 × 576

Estructura de muestreo

4:2:2

Resolución de las muestras

8 bits

Compresión

NO

Datos de vídeo antes de la compresión

172 Mbits/s

Datos comprimidos

172 Mbits/s

Datos totales grabados

216 Mbits/s

Pistas de audio

4 canales (48 khz/16 bits)

Aplicación principal

Posproducción y publicidad

Diámetro del tambor

75 mm

Rotación del tambor

150 rps

Tipo de cinta

Oxido Fe-Co

Velocidad de escritura

35,63 m/s

Velocidad de la cinta

286,8 mm/s

Anchura pistas de vídeo

40 μm

Duración máxima de las cintas

Pequeñas: 13 min. Medianas: 41 min. Grandes: 94 min.

7.3.Betacam digital

El Betacam digital ha sido desde finales de los años noventa hasta la primera década del siglo XXI el formato más utilizado en el sector profesional, debido a sus excelentes prestaciones técnicas, a la gran calidad de imagen y, sobre todo, a la compatibilidad que ofrecía con las cintas Betacam analógicas. Este hecho es de vital importancia, ya que durante muchos años las productoras y cadenas de televisión habían trabajado en la versión analógica (Betacam SP) y, al hacer el cambio a la versión digital, todo aquel material que tenían de archivo lo podían seguir reproducir con el nuevo dispositivo digital.
El Betacam digital es un formato de grabación de audio y vídeo digitales en componentes (Y, R-Y, B-Y) sobre una cinta de 1/2 pulgada desarrollado por Sony en 1993. El formato sigue las especificaciones definidas en la recomendación de la ITU-R 601.
Es de los primeros formatos en utilizar compresión en la imagen. Concretamente aplica un pequeño factor de 2:1. En ese momento, utilizar un factor de compresión tan reducido suponía una pérdida de calidad de imagen prácticamente imperceptible, por lo que este formato se considera altamente profesional. En la actualidad, debido a la evolución y a la gran eficiencia de las técnicas de compresión, existen formatos que con mayores factores de compresión ofrecen una calidad similar a la del Betacam digital.
Gracias a que ofrece tan buena calidad, a su robustez y a que permite la multigeneración, es un formato adecuado para la posproducción digital.
Tabla 4. Principales parámetros del formato Betacam digital (1993)

Parámetros

Especificaciones

Sistema

525-60 (entrelazado)

625-50 (entrelazado)

Fabricante

Sony

Anchura de la cinta

1/2" (12,7 mm)

Tipo de señal

Componentes ITU-601

Resolución

720 × 480

720 × 576

Estructura de muestreo

4:2:2

Resolución de las muestras

10 bits

Compresión

2:1 (intracuadro)

Datos de vídeo antes de la compresión

218 Mbits/s

Datos comprimidos

109 Mbits/s

Datos totales grabados

127,8 Mbits/s

Pistas de audio

4 canales (48 khz/16 bits)

Aplicación principal

Posproducción y radiodifusión

Diámetro del tambor

81,4 mm

Rotación del tambor

75 rps

Tipo de cinta

Partículas de metal

Velocidad de escritura

19,8 m/s

Velocidad de la cinta

96,7 mm/s

Anchura pistas de vídeo

26 μm con grabación azimutal

Duración máxima de las cintas

Pequeñas: 40 min. Medianas: -- Grandes: 124 min.

7.4.Betacam SX

El Betacam SX es un formato de grabación magnética de vídeo y audio digitales sobre cinta de 1/2 pulgada desarrollado por Sony en 1996.
En este caso se buscaba un formato similar al Betacam SP, pero con la capacidad de grabar digitalmente. O sea, se trata de una sub-versión del Betacam digital a un precio mucho más accesible que, además, ofrece una calidad similar a la del Betacam SP.
Para conseguir reducir el precio, se implementan una serie de técnicas de compresión que permiten reducir el ancho de banda hasta los 18 Mbits/s, o sea que en este caso se aplica un factor de compresión de 10:1. Para conseguir un factor de compresión tan elevado es necesario utilizar técnicas de compresión temporal. Así, con este formato se utilizan por primera vez en vídeo profesional este tipo de técnicas con algoritmo definido por la MPEG bajo el estándar (ISO/IEC 13818-2 o MPEG-2).
Observad que todos los formatos analizados hasta el momento incorporan cuatro canales de audio digital muestreados a 48 Khz y cuantificados a 16 bits. Estos canales de audio se graban sin compresión, ya que el ahorro de dicha compresión no sería significativo frente al gran flujo de datos que requiere la señal de vídeo.
Finalmente, sobre la cinta se graban unos 40 Mbits/s. Esto es el resultado de sumar los 18 Mbits/s del vídeo con la información de audio y la posterior codificación de estos para la detección y corrección de posibles errores como drops, rayadas en la cinta, obturación o suciedad en los cabezales, etc.
Tabla 5. Principales parámetros del formato Betacam SX (1996)

Parámetros

Especificaciones

Sistema

525-60 (entrelazado)

625-50 (entrelazado)

Fabricante

Sony

Anchura de la cinta

1/2" (12,7 mm)

Tipo de señal

Componentes ITU-601

Resolución

720 × 480

720 × 576

Estructura de muestreo

4:2:2

Resolución de las muestras

8 bits

Compresión

10:1 (intercuadro)

Datos de vídeo antes de la compresión

172 Mbits/s

Datos comprimidos

18 Mbits/s

Datos totales grabados

40 Mbits/s

Pistas de audio

4 canales (48 khz/16 bits)

Aplicación principal

Informativos profesionales

Diámetro del tambor

81,4 mm

Rotación del tambor

75 rps

Tipo de cinta

Partículas de metal

Velocidad de escritura

19,1 m/s

Velocidad de la cinta

59,5 mm/s

Anchura pistas de vídeo

32 μm con grabación azimutal

Duración máxima de las cintas

Pequeñas: 62 min. Medianas: -- Grandes: 194 min.

7.5.Betacam IMX

El Betacam IMX se convirtió en el sustituto natural desde el punto de vista tecnológico del Betacam digital.
Desde la perspectiva tecnológica, se trata de un formato capaz de muestrear mediante la norma 4:2:2 a 8 bits (en lugar de los 10 bits del Betacam digital) y con un factor de compresión muy reducido (de 3,3:1) sin utilizar compresión temporal. En este caso, es el primer formato que graba bajo la especificación 422P@ML de la MPEG-2. El ancho de banda resultante es de 50 Mbits/s.
En los siguientes casos podéis observar de qué manera aumenta la eficiencia en los sistemas de compresión:
  • En el año 1993, los sistemas de compresión empezaban a aplicarse a la señal de vídeo, ya que con el Betacam digital con una norma 4:2:2 codificada a 10 bits y con un factor de compresión de 2:1 de tipo intra se obtenía un ancho de banda de 127 Mbits/s.

  • En el año 1996, tres años más tarde, las técnicas ya habían evolucionado lo suficiente como para aplicar una compresión temporal a la señal. Con esto se conseguía una imagen más degradada, pero en contraposición aumentaba enormemente el factor de compresión (172 Mbits/s de antes de la compresión y 18 Mbits/s después de la compresión). Esto supone que la circuitería debe gestionar anchos de banda mucho más reducidos y que, por lo tanto, el precio del aparato también se reduce.

  • En el año 2000, el hardware ha evolucionado lo suficiente como para poder gestionar elevados flujos de datos a un coste más razonable. Esto posibilita incorporar de nuevo en el Betacam IMX un reducido factor de compresión (como en el Betacam digital) sin necesidad de utilizar técnicas de compresión temporal. O sea, que gracias a la evolución de las técnicas de compresión y a la mejora del hardware, se obtiene una calidad superior al Betacam digital a un precio bastante mas razonable. Lógicamente, en este caso el Betacam IMX ofrece plena compatibilidad hacia abajo con el resto de formatos Betacam (SP, digital y SX).

Tabla 6. Principales parámetros del formato Betacam IMX (2000)

Parámetros

Especificaciones

Sistema

525-60 (entrelazado)

625-50 (entrelazado)

Fabricante

Sony

Anchura de la cinta

1/2" (12,7 mm)

Tipo de señal

Componentes ITU-601

Resolución

720 × 480

720 × 576

Estructura de muestreo

4:2:2

Resolución de las muestras

8 bits

Compresión

3,3:1 (intracuadro)-MPEG-2 (422P@ML)

Datos de vídeo antes de la compresión

172 Mbits/s

Datos comprimidos

50 Mbits/s

Datos totales grabados

87,7 Mbits/s

Pistas de audio

8 canales (48 khz/16 bits) 4 (canales 48khz/24bits)

Aplicación principal

Programas profesionales

Diámetro del tambor

81,4 mm

Rotación del tambor

50 rps

Tipo de cinta

Partículas de metal

Velocidad de escritura

12,7 m/s

Velocidad de la cinta

53,77 mm/s

Anchura pistas de vídeo

21,7 μm con grabación azimutal (8 tracks × frame)

Duración máxima de las cintas

Pequeñas: 71 min. Medianas: -- Grandes: 220 min.

7.6.Formatos DV: Mini DV, DVCAM y DVCPRO

El formato DV fue creado en 1994 por un consorcio de más de sesenta empresas del sector, tales como Sony, Panasonic, JVC, Sharp, Canon, etc. Inicialmente fue concebido, bajo la norma IEC 61834, como un sustituto digital de los antiguos formatos analógicos en el ámbito del vídeo industrial. El avance tecnológico que supuso este formato fue tan importante que acabó introduciéndose en todos los sectores.
En el ámbito del vídeo doméstico, apareció con las cintas DV y mini DV, con las que desbancó, sobre todo, los formatos de grabación de vídeo doméstico en cinta, tales como el VHS-C o el vídeo 8 mm. Una gran cantidad de consumidores adquirieron cámaras que grababan en formato mini DV. Aparecieron muy pocos dispositivos estacionarios, con lo que durante muchos años la gente tenía en casa un vídeo VHS o Betamax para grabar y reproducir y, en algunos casos, un DVD como reproductor digital y una cámara mini DV para grabar digitalmente. Lógicamente, en la mayoría de los casos, cuando querían visualizar el material grabado con la cámara tenían que reproducirlo desde la propia cámara.
Esto supuso una revolución en el sector del vídeo industrial, ya que sustituyó absolutamente todos los formatos analógicos (como el S-VHS, el Hi8 o el U-Matic). Su calidad era tan buena que incluso acabó introduciéndose en muchos ámbitos del sector profesional. Su incursión en el mercado del vídeo industrial y profesional se hizo con los formatos DVCAM y DVCPRO. Por lo general, el DVCAM se encontraba en aplicaciones industriales y el DVCPRO en aplicaciones profesionales.
Este nivel de presencia en todos los sectores era y es aún de gran importancia, ya que permite el intercambio de imágenes entre sectores sin que ello suponga una gran pérdida de calidad de imagen. De esta manera es más fácil, por ejemplo, poner en un informativo unas imágenes grabadas por un vídeo aficionado.
7.6.1.DV y mini DV
DV es un formato de grabación de audio y vídeo digital en componentes sobre cinta de 1/4 de pulgada de metal vaporizado.
Originalmente fue un formato desarrollado por la empresa Matsushita en 1993 junto con otros fabricantes tales como Sony, Philips, Thomson, Hitachi, JVC, Sanyo, Sharp y Mitsubishi en 1994. El propósito de este formato era el de substituir los antiguos formatos de vídeo domésticos analógicos (VHS, S-VHS, Hi8, Vídeo 8, etc.).
Se trata de un formato digital que graba vídeo en componentes (Y, R-Y, B-Y) y lo muestrea según la norma 4:2:0 si trabaja en los sistemas PAL y SECAM o bajo la norma 4:1:1 si se trabaja en NTSC.
Como la mayoría de formatos de vídeo digital, aplica a la señal de vídeo una compresión. En este caso sería del tipo DCT intra campo/cuadro. Con este formato, el factor de compresión aplicado es de 5,5:1, de modo que las señales que antes de la compresion tienen un ancho de banda de casi 125 Mbits/s se quedan en 25 Mbits/s después de la compresión.
Además de incorporar técnicas de compresión intracuadro como la DCT, este formato es capaz de aplicar compresión temporal cuando lo considera necesario, de manera que aplica compresión (intracampo) cuando detecta el movimiento en la escena; en cambio, cuando detecta imágenes estáticas, la DCT se aplica sobre bloques de los dos campos (intracuadro).
Tabla 7. Principales parámetros del formato DV (1994)

Parámetros

Especificaciones

Sistema

525-60 (entrelazado)

625-50 (entrelazado)

Fabricante

Varios (Sony, Panasonic, JVC y otros)

Anchura de la cinta

1/4" (6,35 mm)

Tipo de señal

Componentes ITU-601

Resolución

720 × 480

720 × 576

Estructura de muestreo

4:1:1

4:2:0

Resolución de las muestras

8 bits

Compresión

5:1 (intracuadro)

Datos de vídeo antes de la compresión

124,4 Mbits/s

Datos comprimidos

25 Mbits/s

Datos totales grabados

41,8 Mbits/s

Pistas de audio

2 canales (48 khz/16 bits) o 4 canales (32khz/12 bits)

Aplicación principal

Doméstico

Diámetro del tambor

21,7 mm

Rotación del tambor

150 rps

Tipo de cinta

Metal vaporizado

Velocidad de escritura

10,16 m/s

Velocidad de la cinta

18.831 mm/s

Anchura pistas de vídeo

10 μm con grabación azimutal

Duración máxima de las cintas

Pequeñas: 60 min. Medianas: -- Grandes: 180 min.

7.6.2.DVCAM
DVCAM es un formato de grabación de audio y vídeo por componentes sobre cinta de 1/4 de pulgada desarrollada por Sony en 1995, basado en el DV doméstico, con el que presenta cierta compatibilidad.
Utiliza el mismo formato de cinta que el DV. La única diferencia consiste en que aumenta la velocidad de la cinta un 50%, con lo que la anchura de las pistas es de 15 μm, en vez de los 10 μm del DV. Se supone que, aumentando la velocidad, se consigue un formato más robusto y con una mejor calidad, suficiente (según SONY) para satisfacer las exigencias del sector profesional.
Por lo general, las cámaras y vídeos que utilizan este formato de grabación son más robustos y de mayores y mejores prestaciones que los formatos domésticos que trabajan en cintas DV o mini DV. O sea, las cámaras ya incorporan ópticas de tamaño grande o intermedio y muchas dejan de ser handicam para convertirse en cámaras que se deben apoyar sobre el hombro para soportarse mejor el peso. Esto supone un aumento del precio de los dispositivos sin llegar alcanzar los presupuestos de material profesional. Por esta razón, se trata de un formato ideal para aplicaciones de vídeo industrial, corporativo, institucional, bodas, etc.
El DVCAM, como el DV, utiliza un algoritmo de compresión que conmuta de forma automática entre intracuadro e intracampo según el contenido del programa. Como novedad, este formato nos introduce el CLIPLINK, el cual facilitará el proceso de edición gracias al su capacidad de almacenar en una memoria autoalimentada de la cinta hasta 198 imágenes a baja resolución, correspondientes al inicio de todas las secuencias que se han grabado. Estas van asociadas con su código de tiempo de inicio y final, y permiten al operador marcar como válidas o no válidas las secuencias.
Para interconectar digitalmente aparatos que trabajen con este formato y con el formato DV, Sony ha desarrollado un protocolo basado en el IEEE 1394 (Fireware) llamado I-link.
Tabla 8. Principales parámetros del formato DVCAM (1996)

Parámetros

Especificaciones

Sistema

525-60 (entrelazado)

625-50 (entrelazado)

Fabricante

Sony

Anchura de la cinta

1/4" (6,35 mm)

Tipo de señal

Componentes ITU-601

Resolución

720 × 480

720 × 576

Estructura de muestreo

4:1:1

4:2:0

Resolución de las muestras

8 bits

Compresión

5:1 (intracuadro)

Datos de vídeo antes de la compresión

124,4 Mbits/s

Datos comprimidos

25 Mbits/s

Datos totales grabados

41,8 Mbits/s

Pistas de audio

2 canales (48 khz/16 bits) o 4 canales (32khz/12 bits)

Aplicación principal

Industrial

Diámetro del tambor

21,7 mm

Rotación del tambor

150 rps

Tipo de cinta

Metal vaporizado

Velocidad de escritura

10,16 m/s

Velocidad de la cinta

28.831 mm/s

Anchura pistas de vídeo

15 μm con grabación azimutal

Duración máxima de las cintas

Pequeñas: 40 min. Medianas: -- Grandes: 184 min.

7.6.3.DVCPRO 25
DVCPRO 25 es un formato de grabación de vídeo digital en componentes sobre cinta de 1/4 de pulgada desarrollado por Matsushita (Panasonic) para el mercado profesional, en 1995. En algunas ocasiones se denomina DVCPRO a secas, sin el 25.
Se trata de un formato que tiene unas características de procesado de señal prácticamente iguales al resto de formatos DV. Sin embargo, su ámbito de trabajo es el sector profesional, ya que los dispositivos (cámaras y vídeos) utilizados son de alta calidad y estabilidad.
Al tener una cinta tan estrecha es prácticamente imposible insertar una pista de código de tiempo longitudinal, por lo que incorpora un código de tiempo en un área de subcódigo de las pistas de vídeo.
Una de las diferencias entre este formato y sus predecesores es que tan solo utiliza una única norma de muestreo. Concretamente, utiliza la norma 4:1:1, con lo que se consiguen imágenes de alta calidad que después de la compresión acaban con un ancho de banda de 25 Mbits/s.
La huella magnética del formato profesional es casi idéntica a la del DV, aunque el espaciado entre pistas del DVC-Pro es duplica prácticamente el la versión doméstica, con lo que se consigue cierta compatibilidad entre formatos. La anchura de sus pistas es superior a la del DVCAM y los DV o mini DV, lo que significa que existe compatibilidad hacia abajo con el resto de formatos. O sea, un lector DVCAM puede reproducir cintas DVCAM y DV o mini DV, pero no puede reproducir cintas DVC-Pro. Un vídeo DVC-Pro puede reproducir los tres formatos: DVC-Pro, DVCAM y DV o mini DV.
Tabla 9. Principales parámetros del formato DVCPRO en cinta (1995)

Parámetros

Especificaciones

Sistema

525-60 (entrelazado)

625-50 (entrelazado)

Fabricante

Panasonic

Anchura de la cinta

1/4" (6,35 mm)

Tipo de señal

Componentes ITU-601

Resolución

720 × 480

720 × 576

Estructura de muestreo

4:1:1

Resolución de las muestras

8 bits

Compresión

5:1 (intracuadro)

Datos de vídeo antes de la compresión

124,4 Mbits/s

Datos comprimidos

25 Mbits/s

Datos totales grabados

41,8 Mbits/s

Pistas de audio

2 canales (48 khz/16 bits) o 4 canales (32khz/12 bits)

Aplicación principal

Profesional

Diámetro del tambor

21,7 mm

Rotación del tambor

150 rps

Tipo de cinta

Partículas de metal

Velocidad de escritura

10,16 m/s

Velocidad de la cinta

18.831 mm/s

Anchura pistas de vídeo

18 μm con grabación azimutal

Duración máxima de las cintas

Pequeñas: 60 min. Medianas: -- Grandes: 180 min.

7.6.4.DVCPRO 50
Las subnormas de muestreo 4:2:0 y 4:1:1 nunca han sido especialmente bien consideradas en el sector profesional debido al elevado factor de submuestreo de la información correspondiente a las componentes de color. Esto se debe a que una señal con poca resolución espacial de color limita en gran medida el margen para la corrección de color y, sobre todo, la capacidad de incrustar correctamente imágenes mediante croma key. Por eso, Panasonic sacó al mercado una versión del DVCPRO destinada al sector profesional denominada DVCPRO 50, que trabaja mediante la norma 4:2:2, igual que el Betacam digital.
Otra de las diferencias que destacan y permiten considerar al DVCPRO 50 como un formato destinado a aplicaciones profesionales es el reducido factor de compresión que aplica a la señal, el cual es de 3,3:1. Con este factor de compresión se obtiene un ancho de banda final de datos de 50 Mbits/s. De ahí sale el 50 correspondiente a su nombre, que le permite diferenciarse del DVCPRO convencional.
Los dispositivos de lectura DVCPRO 50 tienen plena compatibilidad hacia abajo, lo que significa que permiten leer todas las cintas DVCPRO, DVCAM o DV. Hay que observar que las cintas de DVCPRO 50 son, por lo general, las mismas que en DVCPRO. Aunque el fabricante ha sacado algún modelo específico para DVCPRO 50 (con la lengüeta de color rojo, en lugar de amarillo), a menudo se utilizan las mismas cintas para grabar en DVCPRO 25 y para grabar en DVCPRO 50. La única diferencia radica en que cuando se graba una señal de 50 Mbits/s, al tratarse del doble de ancho de banda, la velocidad de desplazamiento de la cinta debe ser el doble, con lo que su autonomía de grabación se reduce a la mitad.
Tabla 10. Principales parámetros del formato DVCPRO 50 «D8» (1998)

Parámetros

Especificaciones

Sistema

525-60 (entrelazado)

625-50 (entrelazado)

Fabricante

Varios (Sony, Panasonic, JVC y otros)

Anchura de la cinta

1/4" (6,35 mm)

Tipo de señal

Componentes ITU-601

Resolución

720 × 480

720 × 576

Estructura de muestreo

4:2:2

Resolución de las muestras

8 bits

Compresión

3,3:1 (intracuadro)

Datos de vídeo antes de la compresión

172 Mbits/s

Datos comprimidos

50 Mbits/s

Datos totales grabados

99 Mbits/s

Pistas de audio

4 canales (48 khz/16 bits)

Aplicación principal

Programas profesionales

Diámetro del tambor

21,7 mm

Rotación del tambor

150 rps

Tipo de cinta

Partículas de metal

Velocidad de escritura

11,37 m/s

Velocidad de la cinta

66,7 mm/s

Anchura pistas de vídeo

18 μm con grabación azimutal

Duración máxima de las cintas

Pequeñas: -- min. Medianas: 31 Grandes: 92 min.

7.6.5.DVCPRO HD
En el año 2000, Panasonic sacó al mercado el formato DVCPRO HD o DVCPRO 100, un formato de alta definición basado en el DVCPRO 50.
Con un ancho de banda que podía ir de los 40 Mbps a los 100 Mbps y una compresión que puede llegar a una relación de 6,7:1, este formato usa las mismas cintas de partículas de metal que los DVCPRO 25 y 50, pero, como cada versión fue doblando el ancho de banda, una cinta DVCPRO de 66 minutos puede grabar 33 minutos de material con el formato DVCPRO 50 y 16 minutos con el formato HD.
Como en el caso del DVCPRO 50, el DVCPRO HD tiene una estructura de muestreo 4:2:2 y una resolución de 8 bits. Lo que sí cambia son las resoluciones soportadas. AlDVCPRO HD son 1080y@59.94 y 720p@59.94 para el Sistema PAL, y 1080y@50 y 720p@50 para el Sistema NTSC, aunque algunas cámaras DVCPRO HD también soportan otros frame rate cuando graban en formato 720 p. Además, el DVCPRO HD soporta hasta ocho pistas de audio.
Como curiosidad, se podría decir que el formato DVCPRO HD no es realmente un formato HD. Si, por ejemplo, se graba con el formato 720 p con una cámara DVCPRO HD, esta graba efectivamente 1280 píxeles por línea, pero –para ahorrar espacio en la cinta o tarjeta P2– la cámara calcula y guarda la media de los valores de cada 1,33 píxeles (este proceso se denomina subsampling), así que el resultado final es que se guardan 960 píxeles con forma rectangular para cada línea de vídeo.
En la siguiente tabla se pueden ver las características de cada formato DVCPRO HD.
Tabla 11. Las diferentes resoluciones del formato DVCPRO HD

Formato

DVCPRO HD

Dimensiones del

fotograma (FAR)

Relación de

aspecto del píxel

(PAR)

Relación de

aspecto de la imagen

(DAR)

Frame rate

Método de escaneo

1080i@59.94

1280x1080

3:2

16:9 (1920 × 1080)

59.94

entrelazado

1080i@50

1440x1080

4:3

16:9 (1920 × 1080)

50

entrelazado

720p@59.94

960x720

4:3

16:9 (1280 × 720)

59.94

progresivo

720p@50

960x720

4:3

16:9 (1280 × 720)

50

progresivo

7.6.6.Formatos DV y tarjetas P2
En general, la grabación en cinta cada vez se utiliza menos. En 1995 la empresa japonesa Ikegami introdujo Editcam, el primer sistema de grabación de vídeo sin cinta, pero no fue hasta comienzos del año 2000 que este nuevo sistema de grabación se popularizó: en 2003, al presentar el formato de vídeo XDCAM, Sony introdujo el soporte de grabación extraíble (disco óptico) Professional Disc (PFD) y en 2004 Panasonic introdujo la opción de grabar el formato DV sobre tarjeta de estado sólido P2, un soporte de almacenamiento aceptado ampliamente por el mercado y que también se usa en otros formatos de vídeo, como los de alta definición. A partir de entonces, el número de sistemas de grabación de vídeo en memorias flash y discos duros solo ha hecho que crecer, mientras que la opción de grabar en cinta se puede considerar una técnica prácticamente obsoleta.
Centrándonos ahora en las tarjetas P2 y en los formatos DV, cabe decir que estas tarjetas permiten soportar multitud de formatos, independientemente de la codificación que utilicen. Así, en una tarjeta P2 pueden grabarse tanto señales DVCPRO como DVCPRO 50 o DVCPRO HD de alta definición. Lógicamente, en función del formato que se esté utilizando, la autonomía de grabación cambiará de forma inversamente proporcional al ancho de banda que se grabe.
En las tarjetas P2, el formato DV se guarda usando el contenedor multimedia MXF (material exchange format), hecho que facilita considerablemente su integración dentro de un sistema de edición no lineal. Por ejemplo, al insertar una tarjeta P2 en la ranura PCMCIA de un ordenador, el sistema la reconoce como unidad de almacenamiento externa y permite su edición o distribución inmediata y aleatoria, sin tener que capturar y convertir su contenido.
A continuación podéis ver una relación entre la capacidad de las tarjetas P2 y la autonomía de grabación según el formato de vídeo que se esté utilizando.
Tabla 12. Relación entre la capacidad y el tiempo de grabación de algunas tarjetas P2

Capacidad

DVCPRO

DVCPRO HD 720p@24fps

DVCPRO 50

DVCPRO HD 1080i60 o 720p60 o AVC-Intra100

4 GB

16 minutos

10 minutos

8 minutos

4 minutos

8 GB

32 minutos

20 minutos

16 minutos

8 minutos

16 GB

1 hora y 4 minutos

40 minutos

32 minutos

16 minutos

32 GB

2 horas y 8 minutos

1 hora y 20 minutos

1 hora y 4 minutos

32 minutos

64 GB

4 horas y 16 minutos

2 horas y 40 minutos

2 horas y 8 minutos

64 minutos

8.Codificación y compresión de vídeo y audio digital

En el apartado anterior hemos introducido los conceptos de compresión de vídeo y audio digital reversible e irreversible. Como hemos visto, la compresión reversible es una compresión sin pérdidas (lossless), mientras que la compresión irreversible sí que implica pérdidas de información (lossy). También hemos hablado sobre la compresión espacial y la compresión temporal, y estudiado en qué casos se aplica una y en qué casos la otra. Finalmente, hemos visto algunos formatos de vídeo, todos ellos muy relacionados con técnicas y apoyos de grabación.
Con todo, a menudo nos encontramos con que un vídeo digitalizado y almacenado con uno de los formatos de vídeo vistos en el apartado anterior tiene que ser editado y convertido a un nuevo formato antes de ser distribuido, o –directamente– almacenado en otro soporte. Un formato muy bueno para capturar y almacenar vídeo digital puede ser un formato muy malo para distribuir vídeos en la red.
En este apartado estudiaremos algunos de los conceptos más importantes relacionados con el proceso de codificar y exportar vídeo digital usando un editor de vídeo, o, simplemente, cambiar su formato con un convertidor. Si bien haremos referencia a algunos programas para ejemplificar algunos de los términos analizados, el apartado no es una guía sobre cómo exportar o convertir vídeo en un editor o editores de vídeo en particular. La finalidad principal es la de introducir y analizar algunos de los conceptos clave que intervienen en estos procesos, para dotar al alumno de los conocimientos necesarios e imprescindibles para poder hacer estas operaciones de forma satisfactoria sobre cualquier software.

8.1.Contenedores multimedia y códecs

Para empezar, es importante entender y saber diferenciar claramente los conceptos de contenedor multimedia y códec, pues, a pesar de ser conceptos fundamentales en el vídeo digital, muy a menudo se confunden.
Un contenedor multimedia es un archivo digital para almacenar vídeo y audio. Los contenedores más complejos también pueden almacenar subtítulos, capítulos y metadatos. Las especificaciones técnicas del archivo contenedor definen la forma en que todos estos elementos se sincronizan y relacionan entre sí, permitiendo su correcta reproducción. Por ejemplo, QuickTime es un contenedor multimedia de Apple con extensión .mov o .qt.
En cambio, un códec es un algoritmo implementado en un programa o una máquina –o en un dispositivo que combine software y hardware– que permite codificar o descodificar una señal o flujo de datos digitales.
Si bien son cosas diferentes, el concepto de codificación se acostumbra a asociar al de compresión, puesto que, aunque se puede codificar sin comprimir, normalmente la finalidad del proceso de codificación es la de conseguir reducir la medida de un archivo o el flujo de datos digitales.
Las características del contenedor multimedia determinan los tipos de códecs de vídeo y audio soportados por el contenedor, y la posibilidad de añadir subtítulos u otras funcionalidades avanzadas, como pueden ser los flujos de bits variables (más adelante estudiaremos este concepto). Por lo tanto, si queremos usar un códec en particular, primero nos tenemos que asegurar de que escogemos un contenedor compatible con este códec.
Para ejemplificar estos dos conceptos, en la figura 19 tenemos una captura de pantalla de la ventana ExportSettings del programa Premiere, desde donde se configura el formato que tendrá el vídeo de salida del proyecto. Como podemos ver, lo primero que se tiene que hacer es seleccionar el contenedor multimedia desde la pestaña Formato.
Figura 19. Selección del contenedor multimedia en la ventana ExportSettings de Premiere
Figura 19. Selección del contenedor multimedia en la ventana ExportSettings de Premiere
Una vez seleccionado el contenedor, el mismo programa nos indica cuáles son los códecs (o el códec, ya que algunos contenedores solo soportan uno) de vídeo y audio disponibles para este contenedor. En la pestaña Video se selecciona el códec del vídeo y en la pestaña Audio, el códec del audio (figura 20).
Figura 20. Selección del códec de vídeo y el códec de audio enPremiere
Figura 20. Selección del códec de vídeo y el códec de audio enPremiere
Así pues, el resultado de exportar el vídeo de este proyecto con esta configuración será un archivo contenedor multimedia en formato QuickTime, que dentro tendrá un vídeo codificado con el códec Apple ProRes 422 (HQ) y un audio codificado con el códec Apple Lossless (pero podíamos haber escogido cualquier otros). Evidentemente, un usuario final no vería estas partes, vería un único archivo .mov que sería posible reproducir, por ejemplo, en el reproductor QuickTime Player de Apple.
Aquí es importante hacer notar que es este reproductor el que efectúa el proceso de descodificar los datos de vídeo y audio incluidos en el contenedor multimedia. El contenedor multimedia no incluye los códecs, solo incluye la información de qué códecs se han usado; y es el programa reproductor el encargado de –primero– interpretar correctamente cuáles son los códecs necesarios y –segundo– descodificar la información incluida en el contenedor con los códecs que ya tiene que tener instalados. Esta es la razón de que, a veces, un reproductor no sea capaz de reproducir un archivo multimedia: no tiene los códecs necesarios para poder interpretar los datos incluidos en el archivo contenedor. Por eso, a la hora de codificar y exportar un vídeo, en el supuesto de que no se utilicen códecs muy populares, es imprescindible asegurarse de que la plataforma, usuario o usuarios destinatarios del vídeo tienen acceso a estos códecs.
Sobre el término formato de vídeo, podemos decir que normalmente hace referencia al archivo contenedor. Por ejemplo, hablamos de vídeo en formato QuickTime o formato AVI. De todos modos, algunos textos usan el término formato de vídeo para referirse exclusivamente al códec de vídeo utilizado. Así que, cuando hablan de formato de vídeo, están hablando de si el vídeo está codificado con el códec H.264/AVC, el MPEG-2 o cualquier otro.
Para acabar de complicar algo más la terminología, a veces, el contenedor y el códec de vídeo tienen el mismo nombre, y a veces no se sabe exactamente si se habla de uno u otro; o se usa el nombre del contenedor para referirse al códec: por ejemplo, se habla de codificación Mp3, pero el nombre del códec es MPEG-1 Audio Layer 3. De todos modos, si se tienen claros los conceptos de contenedor multimedia y códec, es sencillo deducir a qué se refiere un texto cuando habla de formatos de vídeo o detectar cuándo se mezclan estos términos, ya sea para simplificar la terminología o por desconocimiento.
Para acabar este apartado, en esta tabla se muestran algunos de los contenedores multimedia más utilizados, con su extensió́n, propietario y códices de vídeo y audio soportados más habituales.
Tabla 13

Nombre y extensión

Propietario

Códecs de vídeo

Códecs de audio

3GP (.3gp)

3GPP

H.263, MPEG-4 Parte 2 y H.264/MPEG-4 AVC

AMR-NB, AMR-WB, AMR-WB+, AAC, HE-AAC y HE-AAC v2

Advanced Systems Format (.asf, .wma, .wmv)

Microsoft

Casi todos a través de VFW (*) o DMO (**)

Casi todos a través de ACM (***) o DMO

AVI (.avi)

Microsoft

Casi todos a través de VFW

Casi todos a través de ACM

DivX Media Format (.divx)

DivX, Inc.

MPEG-4 Parte 2 compatible con DivX profiles

MP3, PCM, AC-3

Flash Video (.flv)

Adobe Systems

Sorenson, VP6, Screen Video, H.264/MPEG-4 AVC

MP3, Nellymoser, ADPCM, LPCM, AAC, Speex

Matroska (.mkv, .mk3d,

.mka, .mks, .webm)

CoreCodec, Inc.

Todos

Todos

MP4 (.mp4)

MPEG

HEVC/MPEG-H Parte 2/H.265, MPEG-2 Parte 2, MPEG-4 ASP, H.264/MPEG-4 AVC, H.263, VC-1, Dirac, otros

MPEG-2/4 (HE)-AAC, MPEG-1/2 Layers I, II, III (MP3), AC-3, Apple Lossless, ALS, SLS, otros

MPEG Video File (.mpg, .mpeg)

MPEG

MPEG-1, MPEG-2

MPEG-1 Layers I, II, III (mp3)

MPEG transport stream TS (.ts)

MPEG

MPEG-1, MPEG-2 Parte 2, MPEG-4 ASP, H.264, otros

MPEG-1 Layers I, II, III (mp3), AAC, otros

BDAV MPEG-2 transport stream (.m2ts)

Blu-ray Disc Association

MPEG-2 Parte 2, H.264, VC-1

AC-3, DTS, LPCM, Dolby Digital Plus, DTS HD, Dolby Lossless

MXF (.mxf)

SMPTE

Todos

Todos

Ogg

Xiph.org

Theora, Dirac, OggUVS, MNG y otros, y casi todos a través de VFW

Vorbis, FLAC, Speex, Opus, OggPCM, y casi todos a través de ACM

QuickTime (.mov, .qt)

Apple

MPEG-2 (OS X Lion o posterior), MPEG-4 Parte 2, H.264, H.263, H.261, Apple ProRes, Apple Pixlet, Cinepak, Component Video, DV, DVC Pro 50, Graphics, Motion JPEG, Photo JPEG, QuickTime Animation, Sorenson Video 2, Sorenson Video 3

AAC (MPEG-4 Audio), HE-AAC, Apple Lossless, MP3, AMR Narrowbi, MS ADPCM, QDesign Music 2, Qualcomm PureVoice (QCELP), IMA 4:1, MACE 3:1 (solo Mac OS X v10.6.x), MACE 6:1 (solo Mac OS X v10.6.x), ALaw 2:1, ULaw 2:1

RMVB (.rmvb)

RealNetworks

RealVideo 8, 9, 10

(HE)-AAC, Cook Codec, Vorbis, RealAudio Lossless

VOB+IFO (.vob, .ifo)

DVD Forum

MPEG-2 Parte 2, MPEG-1 Parte 2

AC-3, LPCM, DTS, MPEG-2 Parte 3, MPEG-1 Layer II

8.2.Exportación de vídeo digital

Como ya hemos comentado en la introducción, la finalidad de estas páginas es la de introducir algunos conceptos fundamentales en la exportación o conversión de vídeo digital, sin centrarnos en un software en particular. La comprensión de estos términos proporcionará al alumno una sólida base sobre la cual apoyarse cuando efectúe alguna de estas operaciones en Premiere, AfterEffects, Final Cut Pro, Sony Vegas o cualquier otro programa de vídeo.
En el apartado anterior, hemos empezado definiendo y diferenciando los conceptos de contenedor multimedia y códec. En el próximo apartado, volveremos sobre el concepto de códec, profundizando algo más en su análisis, para continuar seguidamente con otros términos clave relacionados con el proceso de exportación y conversión de vídeo digital. Nos centraremos en los códecs y procesos relacionados con la parte de vídeo, dejando de lado la parte de codificación y compresión de audio, pues ya se ve extensamente en otra asignatura del grado.
8.2.1.Códecs
Como hemos visto, un códec de vídeo es un algoritmo cuya finalidad, por norma general, es la de reducir el tamaño de un archivo de vídeo o un flujo de datos digitales. Pero ¿por qué son tan importantes los códecs? Más concretamente, ¿por qué es necesario comprimir vídeo utilizando códecs? Una imagen digital de dimensiones 1920 × 1080 a 24 bits (color real) sin comprimir requiere unos 5.93 MB de espacio de almacenamiento. Por lo tanto, un vídeo con 25 fotogramas por segundo requerirá de 148.25 MB por segundo y una película de una hora y media de duración unos 781 GB. Como es fácilmente deducible, estos valores dificultarían mucho el almacenamiento y complicaría mucho –por no decir que imposibilitaría en muchos casos– procesos como la transmisión de vídeo digital en tiempo real. Así que, en la mayoría de casos, es necesario usar un códec para reducir estos valores, pero sin perder –o perdiendo la mínima– calidad.
Para empezar, tenemos que tener claro que no hay un códec o configuración óptima para todas las situaciones. La finalidad del vídeo puede condicionar el códec: no es lo mismo crear un vídeo destinado a su distribución –y que normalmente está muy comprimido– que un vídeo en un paso intermedio de una cadena de posproducción, que puede llegar incluso a no estar comprimido. Además, como veremos, el contenido mismo del vídeo también puede condicionar la elección del códec y su configuración.
Si el vídeo tiene que ser distribuido en la red, una buena idea es empezar buscando si la plataforma escogida tiene alguna página con indicaciones sobre códecs y configuraciones recomendadas. Vimeo, YouTube y las principales plataformas de distribución de contenidos multimedia acostumbran a detallar esta información y es, sin duda, un buen lugar por donde empezar.Sobre los códecs en particular, sin entrar en un análisis detallado, podemos decir que el estándar H.264/AVC (desarrollado conjuntamente entre el ITU-T Video CodingExpertsGroup (VCEG) y el ISO/IEC Moving Picture ExpertsGroup (MPEG) ha sido, y todavía es, uno de los más utilizados del mercado. En principio, es un buen candidato si el material a codificar y comprimir tiene que ser distribuido en la red.
Su sucesor, el HEVC/H.265 parece que le va ganando terreno poco a poco y, entre sus ventajas destaca que es compatible con la televisión Ultra Hi-Definition, admiten resoluciones de hasta 8192 × 4320 píxeles –por 4096 × 2304 el H.264.
El VP9, estándar de código abierto de Google, integrado en su navegador Chrome y usado por YouTube en sus vídeos en formato 4K, es uno de los otros formatos de codificación de vídeo más reconocidos por el mercado, si bien se espera que su sucesor, el VP10, lo deje atrás, puesto que se anuncia que será capaz de recortar a la mitad la cantidad de datos a transferir en un vídeo en formato 4K.
Windows Media Video (WMV) y ProRes son una serie de códecs de Microsoft y Apple respectivamente. El WMV no ha acabado nunca de tener una gran presencia en el mercado, excepto en productos Microsoft, evidentemente; en cambio, los códecs Apple ProRes, si bien fueron diseñados para ser utilizados durante la posproducción de vídeo (estos códecs reciben el nombre de intermediate codec), han acabado siendo implementados en cámaras y apoyados por varias compañías de software.
Para acabar, también hay que hacer referencia al «viejo» estándar MPEG-2, muy presente en el mercado doméstico, puesto que se usa con formato DVD, y en los estándares de TDT, satélite y cable en Europa (DVB) y América (ATSC).
8.2.2.Keyframe o fotograma de referencia
Como hemos visto en el apartado anterior, las técnicas de compresión de imágenes se basan en la compresión espacial o temporal, siendo esta última la que se usa en la mayoría de sistemas de compresión de vídeo. Aprovechando el elevado nivel de redundancia de datos que hay entre fotogramas consecutivos, este sistema toma un fotograma de referencia y codifica solo las diferencias con este fotograma de los fotogramas posteriores. El valor del keyframe o fotograma de referencia indica cada cuántos fotogramas el códec toma un nuevo fotograma de referencia.
El valor óptimo variará en función de cada vídeo. Si se toman fotogramas de referencia muy a menudo o si los fotogramas de referencia están muy separados entre sí, puede ser que la calidad del resultado final no sea buena. Como norma general, se aconseja coger inicialmente un fotograma de referencia cada segundo de vídeo y, en función del resultado obtenido, ir modificando este valor.
8.2.3.Bit rate
A pesar de ser uno de los conceptos fundamentales en el proceso de codificación de un vídeo digital, es un concepto relativamente poco entendido. El bit rate o tasa de bits es la cantidad de datos que se utilizan para cada segundo de vídeo y se mide en kilobits por segundo (kbps). Por lo tanto, tiene mucha importancia para controlar la calidad y peso final que tendrá el vídeo.
Figura 21. Comparación de los fotogramas de un vídeo codificado a una baja y alta tasa de bits. Fuente: https://vimeo.com/blog/puesto/video-compression-basics
Figura 21. Comparación de los fotogramas de un vídeo codificado a una baja y alta tasa de bits. Fuente: https://vimeo.com/blog/puesto/video-compression-basics
Esta tasa de bits puede ser constante (CBR) o variable (VBR). Una tasa de bits constante usa la misma cantidad de datos cada segundo, mientras que una tasa de bits variable ajusta la cantidad de datos a la complejidad de los fotogramas o de los cambios que se producen entre ellos. Por ejemplo, un vídeo codificado con tasa de bits constante usará la misma cantidad de bits para codificar un segundo de vídeo donde no haya mucho movimiento que para codificar un segundo de vídeo con una escena de acción, que normalmente provoca que haya más cambios entre los fotogramas. En cambio, una codificación con tasa de bits variable usará una tasa de bits baja por el segundo de vídeo sin muchos cambios y una tasa de bits más alta por el segundo de vídeo con la escena con cambios bruscos entre los fotogramas.
A menudo, los códecs intraframe –los que usan la compresión espacial– son CBR y los interframe –los que usan la compresión temporal– son VBR. De todas maneras, no siempre es así. Por ejemplo, los códecs ProRes de Apple son códecs intraframe y VBR. También se puede dar el caso de que un códec admita las dos opciones, como es el caso del códec H.264 con el contenedor MP4.
Para analizar los fotogramas y los cambios entre ellos, algunos códecs, como el mismo H.264, pueden usar una técnica llamada two pass encoding –o multi-pass encoding–, que consiste en analizar el contenido del vídeo en un primer pase y codificarlo en el segundo pase. Al haber hecho un primer pase, el códec conoce cuál es el contenido de todos los fotogramas de la película antes de realizar el segundo y definitivo pase, lo que le permite distribuir mejor la tasa de bits.
En el caso de codificar con una tasa de bits constante, esta tasa de bits queda determinada por un único valor, el target bitrate (los megabits por segundo del vídeo), mientras que para determinar la tasa de bits en el caso de codificar con una tasa de bits variable, necesitaremos configurar el target bitrate (que en este caso será la media de megabits por segundo del vídeo) y el maximum bitrate (el valor máximo de megabits por segundo que puede llegar a tener un segundo de vídeo). En la figura 22 podemos ver estas configuraciones con el códec H.264 (y contenedor MP4) en Premiere.
Figura 22. Configuración del bitrate constante o variable con el códec H.264 Premiere
Figura 22. Configuración del bitrate constante o variable con el códec H.264 Premiere
Por norma general, el método VBR –al no tener las limitaciones de la tasa de bits constante– produce archivos con mejor calidad y será la opción a escoger si el códec nos lo permite. Si codificamos con tasa de bits variable, también nos tenemos que asegurar de escoger la técnica two pass encoding: aunque el tiempo para codificar el vídeo será mayor, el resultado también tendrá más calidad.
8.2.4.Resolución
Análogamente a lo que hemos visto en imágenes, la resolución de un vídeo indica sus medidas en píxeles. Evidentemente, a menor resolución, el peso del archivo también será menor.
Un vídeo puede tener cualquier resolución y relación de aspecto (aspect ratio). En esta tabla se pueden ver las resoluciones y aspectos más comunes.
Tabla 14

Formato

Relación de aspecto

Resolución (px)

Standard Definition (SD)

4:3

640 × 480

Standard Definition (SD)

16:9

640 × 360

720p HD

16:9

1280 × 720

1080p HD

16:9

1920 × 1080

2K

16:9

2560 × 1440

4K

16:9

3840 × 2160

8K

16:9

7680 × 4320

Figura 23. Fotogramas de un vídeo con relación de aspecto 4:3 (izquierda) y un vídeo con relación de aspecto 16:9 (derecha), con la misma longitud diagonal
Figura 23. Fotogramas de un vídeo con relación de aspecto 4:3 (izquierda) y un vídeo con relación de aspecto 16:9 (derecha), con la misma longitud diagonal
En el supuesto de que el vídeo original y el vídeo exportado no tengan la misma resolución, tenemos que cuidar que se respete la relación de aspecto si no queremos obtener un vídeo deformado o recortado, aunque en algunos casos esta puede ser la finalidad del cambio de resolución.
8.2.5.Frame rate
El frame rate es el valor que indica cuántos fotogramas tendrá cada segundo de vídeo. Normalmente, los vídeos tienen un valor fijo de 23.976, 24, 25, 29.97, 30 o 60 fotogramas por segundo (fps, del inglés frames per second). Es posible también exportar el vídeo con una frame rate variable. La idea consiste en que el algoritmo analizará el vídeo e incrementará o reducirá el número de fotogramas por segundo en función de la cantidad de movimiento que tenga el contenido del vídeo. Si bien, a priori, parece una muy buena idea, la realidad es que no todos los programas o plataformas de distribución de vídeo aceptan este formato; además, también puede haber problemas de sincronización con el audio. Por lo tanto, en general, se desaconseja usar un valor de frame rate variable.
También, en general, se aconseja respetar el valor de frame rate del vídeo original. Cambios en el frame rate, sobre todo si son importantes, pueden provocar algunos efectos indeseados en el vídeo exportado, aunque –como siempre– dependerá del contenido del vídeo.
8.2.6.Formato entrelazado y progresivo
Existen dos métodos de escaneo de la imagen: entrelazado y progresivo. Básicamente, el vídeo entrelazado consiste en dos semiimágenes o campos que, juntos, entrelazados para ser más exactos, forman un único fotograma.
Este sistema hace que el espectador reciba más impactos visuales (uno por cada campo) y tiene la finalidad de minimizar el efecto parpadeo de los antiguos sistemas analógicos. De todos modos, se puede considerar un método obsoleto o prácticamente obsoleto, puesto que la tecnología actual permite resolver este efecto sin tener que recurrir a esta técnica.
El método progresivo dibuja el fotograma progresivamente, línea a línea y de arriba abajo.
Así pues, si no es por algún proyecto con características muy particulares, por regla general, al exportar o convertir un vídeo, siempre tendremos que seleccionar el método progresivo.
8.2.7.Relación de aspecto del píxel (PAR)
Al trabajar con vídeo digital, es muy importante saber diferenciar los conceptos de relación de aspecto (display aspect ratio o DAR) y relación de aspecto del píxel (pixel aspect ratio o PAR). Cuando hablamos de relación de aspecto, estamos hablando del aspecto global de cada fotograma. Como hemos visto en la figura 23, un vídeo con fotogramas con relación de aspecto 16:9 tiene un aspecto más rectangular que un vídeo con fotogramas con relación de aspecto 4:3. En cambio, cuando hablamos de la relación de aspecto del píxel, ya no nos referimos a todo un fotograma, sino que estamos hablando de la relación entre la anchura y la altura en un único píxel de un fotograma.
Este es un concepto a veces difícil de entender. ¿Qué quiere decir la relación entre el ancho y la altura de un píxel? Un píxel es siempre cuadrado y su anchura y altura coincidirán, ¿no? Pues, no. No siempre.
Como hemos visto al estudiar el formato DVCPRO HD, este formato guarda píxeles rectangulares, no cuadrados. Para entendernos, al grabar con este formato, la cámara captura el mundo real «a rectángulos», coge rectángulos de realidad y los convierte en datos digitales. Por ejemplo, el DVCPRO HD720p@50 captura 960 × 720 rectángulos, cuya relación es PAR 1.33 o 4:3. Si ahora visualizamos una de estas imágenes en un monitor actual, donde los píxeles siempre son cuadrados, estos 960 × 720 rectángulos tienen que ocupar 1280 × 720 píxeles del monitor.
Figura 24. Diferentes relaciones de aspecto del píxel (PAR)
Figura 24. Diferentes relaciones de aspecto del píxel (PAR)
Así pues, en relación con este tema, al trabajar en un proyecto audiovisual tenemos que tener siempre presente dos aspectos. Primero, que el editor de vídeo está interpretando correctamente los vídeos que forman parte del proyecto, y, segundo, que al exportar el vídeo, escogemos correctamente la relación de aspecto del píxel.
Sobre el primer punto, los editores de vídeo normalmente ya compensan automáticamente la proporción de aspecto de píxeles de los archivos de origen. Con todo, si un proyecto incluye materiales con píxeles no cuadrados, siempre es aconsejable revisar que el material es interpretado correctamente; si no, los vídeos se verían deformados en la pantalla. Si hubiera algún problema, siempre se podría seleccionar la relación de aspecto del píxel manualmente.
Sobre el segundo punto, si el vídeo es para ser visionado en línea o en un monitor de ordenador, siempre se tendrá que escoger la opción de píxeles cuadrados. Si es un proyecto para televisión, por una parte los nuevos formatos 2K, 4K o 8K también usan solo píxeles cuadrados y, por el otro, todas las pantallas recientes (teléfonos, televisores, monitores, etc.) también usan exclusivamente píxeles cuadrados. Así que, por norma general, al exportar un proyecto siempre se tendrá que escoger la opción de píxeles cuadrados; si no, es que el proyecto es algo muy específico, como un proyecto en formatos NTSC o PAL.

Bibliografía

Pareja, E. El magnetoscopio digital profesional. Editorial Marcombo.
Pohlmann, K. C. Principles of digital audio. Editorial McGraw Hill.
Rodríguez, C. Magnetoscopios digitales. Editorial IORTV.
Tarrés, F. Sistemas audiovisuales. Televisión analógica y digital. Ediciones UPC.
Watkinson, J. El arte del vídeo digital. Editorial IORTV.