• Hits: 3222

Almacenando el color: el vídeo

Ratio: 5 / 5

Inicio activadoInicio activadoInicio activadoInicio activadoInicio activado
 

Tercera parte de la serie "El mundo visto en RGB". En ésta, repasamos cómo convertimos una imagen real en señales eléctricas.

Texto: Ramon Sendra

En los dos últimos artículos de “En Vanguardia” hemos repasado qué era el color, cómo lo percibíamos y cómo podíamos representarlo artificialmente. Ahora nos queda repasar, de manera breve, cómo almacenamos eléctricamente lo que nuestros ojos ven. Hemos visto que tenemos la capacidad de representar cualquier color mediante la mezcla aditiva de tres colores primarios (el rojo, el verde y el azul) en las proporciones adecuadas. La elección de los tres mencionados permite que nunca tengamos que restar un color para obtener otro, ya que los tres están suficientemente alejados en el espectro como para que esto ocurra. Además, todos sabemos que los tubos de imagen y otras tecnologías basan la representación de los colores mediante los tres RGB, algo que se ha conseguido estudiando el comportamiento del ojo humano: dispone de tres tipos de conos sensibles cada uno al rojo, al verde y al azul. Mediante primas, las cámaras de televisión dividen la imagen en estos tres colores primarios, y cada sensor de imagen (antes eran tubos, ahora son CCD) determina la intensidad o brillo de cada color. Ya tenemos las tres señales R, G y B.

A principios de los cincuenta Estados Unidos encabeza la investigación de una señal de vídeo que sea capaz de almacenar las señales en color. Hasta entonces, el éxito de la televisión en blanco y negro fue un impulso para producir un revulsivo que hiciese más prometedora la televisión que el cine. El comité encargado de desarrollar este nuevo estándar tuvo dos premisas básicas de actuación. Primero, que la señal resultante fuese compatible con los actuales, por ese entonces, televisores en blanco y negro y, segundo, que el ancho de banda de esta señal no ocupase más de lo que ya ocupaba la señal en blanco y negro. Sobre todo esta segunda limitación es la que ha “permitido” que, durante décadas, los estándares PAL y NTSC conviviesen hasta nuestros días. Antes sólo se conseguía registrar la señal en blanco y negro, que no era más que la medición matricial (o por puntos) del nivel de intensidad o brillo. Con la nueva señal de vídeo los televisores en blanco y negro tenían que “dejar pasar” la información de color y seguir utilizando esa señal de brillo; mientras que los nuevos televisores en color necesitarían de esa información adicional para mostrar las imágenes en color. Esto lo harían separando la señal de luminancia (válida para los TV en B/N) de la de color (que sólo utilizarían los nuevos televisores).

Con anterioridad vimos que podíamos conseguir la señal blanca sumando a partes iguales fuentes de color verde, azul y rojo. Pero en la realidad la proporción de cada uno de los colores no es ni mucho menos la misma. Se estableció que para obtener el blanco eran necesarias 0,3 partes de rojo, 0,59 de verde y 0,11 de azul. La señal que resultaba se llamaría luminancia (abreviada con la letra Y). Ésta es la señal que necesita un televisor en blanco y negro.

Para las televisiones en color debíamos añadirle a cada punto blanco el porcentaje de verde, azul y/o rojo que se necesitara para “colorear” la imagen. A este valor lo llamaremos crominancia. Utilizando la fórmula anterior de luminancia y sabiendo que nos es necesario enviar, sea como sea, la señal Y, podemos deducir que no es necesario mandar, además, las tres señales de color. Conociendo Y y dos valores de color podemos deducir el tercero. Puestos a elegir, eliminamos de la ecuación el verde (G), ya que es el que mayor proporción presenta para conseguir un color (el 59 % de la suma total de colores). Es decir, si enviamos la señal de luminancia y las de color verde y rojo podremos obtener, siempre, la de color verde. A esto le podemos llamar un sistema de compresión sin pérdidas. Evidentemente, los valores R-Y y B-Y pueden arrojar signos negativos. Por ejemplo, imaginemos que queremos representar el color amarillo. Los valores de rojo y verde serán los máximos, mientras que el azul será cero. Si realizamos la medición de 0 a 100, R y G valdrán 100, mientras que B será 0. El valor de luminancia (Y), aplicando la fórmula anterior, será de 89. Matemáticamente podemos calcular que R-Y=11 y B-Y=-89.

Al conjunto Y, R-Y y B-Y se le conoce como componentes de vídeo, y es la señal con la que se suele trabajar normalmente a nivel profesional.


Detalle de un TRC





LA SEÑAL DE VÍDEO



Gracias a la mayor capacidad y ancho de banda de los sistemas profesionales hoy es posible trabajar con señales RGB “puras”, lo que se conoce como componentes primarios, aunque no existe ningún formato de grabación basado en ello. Se suele recurrir a ellos cuando se necesita la máxima resolución, por ejemplo en programas de grafismo. Lo normal es trabajar con componentes de vídeo, sobre todo para tener bajo control el ancho de banda disponible. Además de la “eliminación” de la componente de color verde, lo habitual es reducir el ancho de banda de las dos señales de crominancia, o diferencia de color, a la mitad del total de la señal de luminancia. Por ejemplo, si Y ocupa 5,75 MHz, R-Y y B-Y ocuparán, cada una, 2,875 MHz. Esta reducción supone que la resolución de croma (o color) será inferior a la de luminancia, pero esto no debe preocupar, ya que el sistema de percepción visual humano, como ya vimos con anterioridad, presenta muy poca capacidad para resolver o separar pequeños detalles que sólo difieren en su cromatismo. Incluso cuando en ambientes profesionales se quiere obtener la máxima resolución en la visualización de una imagen, se opta por utilizar visualizadores monocromáticos, como podemos ver en las cámaras de televisión profesionales de hoy en día.



EL SIMPLE PAL Y NTSC



Aunque como aficionados al cine en casa siempre hemos apostado por una imagen de calidad, lo que invita a comprimir lo menos posible la señal, el formato de vídeo más utilizado (incluso hoy en día) es la señal de vídeo compuesto. Se hacía necesario poder enviar toda la señal de vídeo (las tres componentes de color, Y, R-Y y B-Y) mediante un único cable. El vídeo compuesto hace honor a su nombre y es el resultado de la combinación de todas ellas en una única señal codificada. PAL y NTSC son los ejemplos más conocidos, y multiplexan en frecuencia las señales de luminancia y crominancia, lo que produce una reducción del ancho de banda total muy notable (a 1 ó 1,3 MHz). De hecho, es el formato obligado de emisión.

PAL significa Phase-alternating Line o línea de fase alternada. Es el sistema de codificación de color utilizado en los sistemas de teledifusión actuales. Informo todavía más, es un desarrollo de Walter Bruch para Telefunken (Alemania) y fue propuesto en 1967.

Este estándar ofrece una resolución hasta de 625 líneas a 50 Hz (superior en definición al NTSC, pues ofrece hasta 525 líneas a 60 Hz). El PAL (también el NTSC y el casi olvidado SECAM, de hecho no son tan distintos como nos parece) añade la información de color a la de luminancia. El nombre del estándar responde a la manera en cómo se “codifica” el color en la señal de luminancia: los valores están en contrafase. Si se tiene un televisor en blanco y negro la información de color es omitida pues está en contrafase, mientras que en un TV en color se pueden detectar, corregir y visualizar. En comparación y sobre el papel, el estándar PAL tiene más limitaciones en color que el NTSC, aunque éste último se ha ganado varios enemigos que lo denominan Never The Same Colour o nunca el mismo color.

De las 625 líneas que el PAL ofrece sólo son visibles 576. El resto se utiliza para otro tipo de información como datos de sincronismo. Por desgracia, el PAL no es lo suficientemente versátil para el vídeo de hoy en día. El estándar lo sigue limitando a las 576 líneas de resolución vertical, en una relación de aspecto 4:3, y ha sido modificado tantas veces para permitir nuevos servicios (como el teletexto, que está incrustado en la señal burst) que ha llegado a su límite.



ALTA DEFINICIÓN



Los nuevos formatos en alta definición aspiran convenientemente a prescindir de los formatos “compuestos”, como mínimo, utilizando técnicas de compresión menos agresivas. El PAL y todas las variantes similares estaban pensadas para un tipo de visualizador muy concreto: un TRC en 4:3 de baja diagonal. Ahora se están popularizando televisores en panorámico de mayor tamaño, sin despreciar los proyectores de vídeo. Los nuevos formatos de vídeo que aspiran a ser estándar no sólo sacan provecho de la tecnología digital, sino que incluso mejoran la relación de compresión.