• Hits: 9045

Upsampling y oversampling

Ratio: 5 / 5

Inicio activadoInicio activadoInicio activadoInicio activadoInicio activado
 

Diferencias y necesidades. ¿Qué es el upsamplig? ¿Y el oversampling? ¿Son lo mismo? Realmente, ¿son necesarios?

Texto: Ramon Sendra

En 1982, cuando Naranjito era la estrella en nuestro país, Philips y Sony presentaron “la revolución” del audio con el Compact Disc (CD). El CDP-101 de Sony era el primer reproductor de CD-Audio con la promesa de ofrecer un mejor sonido comparado a los soportes “analógicos”. Pero las cosas no fueron así. Irónicamente, los CD de ese momento sonaban sensiblemente peor a lo que se esperaba.

La solución que sí mejoró el estándar llegó con el oversampling (o sobremuestreo), y recientemente hemos oído hablar del upsampling. Hay quien afirma que ambas son técnicas matemáticamente idénticas, otros descubren en cada solución una mejora acústica vagamente notable.

El oversampling apareció ante la necesidad de evitar un defecto propio de la matemática digital, aunque existen diferentes tipos de oversampling con diferentes resultados.

El upsampling, que parece estar de moda en ciertos ambientes audiófilos, aunque es una técnica muy popular en profesional, llega a los ambientes domésticos con el objetivo de mejorar, aún más, la experiencia sonora de un CD-Audio. Pero, ¿realmente mejora algo? ¿Existen diferencias entre el oversampling y el upsampling? ¿Qué es cada uno de ellos?

Las diferencias entre upsampling y oversampling están servidas a modo de discusión entre aficionados (sobre todo los más audiófilos). Otros muchos reciben sus opiniones y crean sus propias premisas a veces sin una base técnica mínima suficiente para entender de lo que se está hablando. Parte del motivo de este artículo es solucionar estas primeras dudas.

Como comentábamos, la aparición del CD-Audio (soporte y reproductor) debía ofrecer a los aficionados un soporte de calidad suficiente que eliminara la idea de seguir apostando por los soportes analógicos, entre ellos el vinilo y las cintas magnéticas. Aunque desde ese momento la cinta de cassetes convencional podía abandonarse, no fue así en los sectores más audiófilos, que detectaron rápidamente una de las limitaciones propias de la conversión digital a analógico (D/A).



Nyquist



El audio digital es la representación numérica de los cambios de presión que generan “música” (o sonido).

Analógicamente podemos representar el sonido como una forma de onda. Esta nos servirá para generar la serie de números binarios que forma una cadena digital. En esta conversión analógico a digital (A/D) se toman muestras de la amplitud de la señal cada cierto tiempo. Naturalmente necesitamos una cantidad suficiente de estas muestras para poder preservar la forma de onda original en forma numérica.

En 1928 Harry Nyquist formuló una teoría que todavía hoy es válida: la frecuencia de muestreo (es decir, el tiempo que debemos esperar entre la toma de una muestra y la siguiente) debe ser superior al doble de la frecuencia más alta de la señal de entrada. Teniendo en cuenta este teorema, y que entonces era necesario una cierta convergencia entre la frecuencia de muestreo elegida y la señal de vídeo, se adoptó el valor de 44,1 kHz. Este valor supera el doble de la máxima frecuencia de una señal de audio “analógica”: los 20.000 Hz.

Una frecuencia de muestreo de 44,1 kHz indica que tomaremos puntualmente el valor de la amplitud de la señal analógica 44.100 veces por segundo. Este valor será convertido a un valor numérico digital (aunque deberíamos decir binario) y codificado y almacenado en un soporte CD. El siguiente paso es volver a restituir la forma de onda original a partir de estos datos, es decir, la conversión digital a analógico.



Matemática imperfecta



La teoría, y por ende las matemáticas, suelen ser perfectas sobre el papel; pero la realidad electrónica es otra cosa muy distinta. Durante la conversión D/A aparece un muy molesto defecto: las frecuencias de “aliasing” o frecuencias imagen. Con este nombre definimos esas frecuencias que se generan durante una conversión D/A por encima del límite de Nyquist, en nuestro caso, por encima de los 22,05 kHz. Más o menos podríamos decir que son una “imagen” de la señal que queremos volver a regenerar. Esta información indeseada (porque no existe en la señal original) debe ser eliminada, y para ello bastaría utilizar un filtro pasa-bajos, que discriminase todo sonido o frecuencia superior a los 20 kHz.

He aquí el problema de las primeras generaciones de reproductores de CD-Audio. Aunque matemáticamente es fácil decir “eliminar todo lo que esté por encima de 20 kHz” en la práctica se convierte en todo un quebradero de cabeza. El motivo es que el filtro entonces utilizado (y la mayoría de los actuales) no tiene una pendiente de corte abrupta. El limitado margen entre la máxima frecuencia de la señal a restituir (20 kHz) y la frecuencia inicial donde se generan las imágenes o el “aliasing” (22,05 kHz) es de apenas 2,05 kHz, muy poco. Por eso, los primeros reproductores sonaban o muy metálicos y fríos o sin parte del espectro superior de la respuesta en frecuencia.



OVERSAMPLING



Poco tiempo después de aparecer el CD (1982), Philips introduce el primer reproductor de CD-Audio con oversampling a 4x. Hacia 1986, la gran mayoría de reproductores ya utilizan el oversampling para evitar los defectos del filtro pasa-bajos. Hoy en día, el oversampling es capaz de llegar a valores de multiplicación de 8x o incluso más. Pero, ¿qué hace el oversampling?

La traducción más común es que realiza la “lectura” de más muestras de la señal digital para reconstruir la forma de onda de manera más precisa. Esto que hemos dado por válido durante tiempo no es exactamente así.

En realidad, el oversampling es un proceso que empieza justo después de que se hayan extraído los datos binarios de un soporte CD (obviamente a 44,1 kHz y 16 bits). Estos datos pasan de nuevo a través de un filtro digital (el oversampling) con la función de aplicar un proceso matemático de interpolación, cuyo objetivo es añadir más puntos de lectura o muestreo entre dos puntos conocidos de una curva. Pocas veces, por no decir que casi nunca, estos nuevos puntos de interpolación corresponden a los mismos puntos que se generarían si hubiéramos hecho un muestreo con frecuencia superior. De hecho, las diferencias entre un circuito de oversampling y otro residen en la aplicación de la fórmula matemática, es decir, en la decisión de “dónde colocar” los nuevos puntos. Algunos circuitos utilizan matrices psicoacústicas basadas en los modelos de Fourier.

El objetivo principal del oversampling no es generar una curva más o menos idéntica a la real u original (de hecho es imposible), sino desplazar considerablemente el inicio de las frecuencias de “aliasing”. Al doblar la frecuencias de muestreo se aleja la frecuencia de “aliasing”. Si antes teníamos una separación de sólo 2,05 kHz, con un oversampling 2x (doblar) la separación es de poco menos de 22 kHz, y así sucesivamente.

Con esta nueva separación incluso ya no será necesario utilizar filtros pasa-bajos tan precisos, hasta se podrán utilizar filtros analógicos. Se puede pensar que a cuanto más factor de oversampling (que siempre será un valor múltiple: 2, 4, 8, 32, etc.) mejor, y esto es así, pero el coste de diseño y fiabilidad también crece.

Los circuitos de oversampling en un lector pueden encontrarse como un circuito integrado independiente (IC), es decir, sin la necesidad de estar integrados dentro del mismo circuito convertidor D/A, o aplicado a un DSP (procesador digital de la señal, digital signal processing). Uno de los DSP más conocidos son las soluciones de Motorola. También podemos encontrar procesados de oversampling como dispositivos externos, que utilizan el lector de CD-Audio como transporte (mediante enlace S/PDIF a 44,1 kHz a 16 bits). El procesador externo suele terminar el trabajo con un filtro pasa-bajos que se aplica a la señal analógica, es decir, después de su conversión D/A. Para algunos, el principal problema de esta solución es que al conjunto se le añaden los problemas de jitter en transferencia digital.



UPSAMPLING



El proceso de upsampling tiene lugar siempre bajo dominio digital, pero en un punto diferente al oversampling. De hecho, algunos fabricantes hablan erróneamente de “upsampling” cuando lo que hacen son dos procesos separados de oversampling (un 2x y después otro 2x), por lo que en este caso upsampling y oversampling significan lo mismo.

Técnicamente, nos referimos a upsampling cuando modificamos la frecuencia de muestreo original (por lo tanto, seguimos capturando los datos digitales del CD a 44,1 kHz/16 bits). La diferencia es que en vez de realizar una conversión 2x (o similar) se realiza a un valor no equivalente; por ejemplo, de 44,1 kHz a 48 kHz o 192 kHz.

Normalmente encontramos dispositivos con upsampling a 192 kHz (los 48 kHz tienen sentido sólo en ambientes profesionales), lo que permite utilizar convertidores D/A compatibles con esta frecuencia de muestreo. Pero el upsampling tampoco es capaz de (o no debería) añadir información adicional.

Una de las ventajas de los que están a favor del upsampling (como Thierry Heeb, fundador de la firma suiza Anagram Technologies) es que “parte de la diferencia está en el jitter”. Este defecto, un problema temporal que se padece durante las transmisiones de datos digitales, es más evidente, según Heeb, utilizando el oversampling. Aún así, no hay evidencias que el upsampling y el oversampling mejoren notablemente la señal original.