¿Qué es el formato HDR TV? (y por qué te debería importar)

hdr tv philips 69 series 640x427 c

Seguro que ya te lo has preguntado: ¿Qué es eso de HDR TV?

Si recientemente te has comprado un televisor, apostamos a que has sido seducido por las siglas 4K UHD, o palabras como “Ultra alta definición”. Cuando UHD se introdujo por primera vez hace unos años, representaba un salto cualitativo en la resolución: cuatro veces más que 1080p HD. Parecía algo muy importante, pero ahora sabemos que UHD (o Ultra HD, o 4K, o como quieras llamarle) tendrá un significado completamente nuevo.

¿Qué es HDR TV? HDR son las siglas en inglés para Alto Rango Dinámico, y puede proporcionar un mayor nivel de contraste entre las imágenes claras y oscuras en la pantalla, creando una imagen mucho más realista. Es un avance bastante significativo. De hecho, muchos en la industria creen que HDR representa un salto significativamente mayor en calidad de imagen que el de la pasada “revolución UHD”.

HDR: Lo básico

El contraste se mide por la diferencia entre los blancos más brillantes y los negros más oscuros que puede mostrar un televisor, medidos en candelas por metro cuadrado (cd/ m2): los llamados nits. El extremo inferior ideal es completamente negro (nits cero), actualmente posible sólo en pantallas OLED. En el extremo superior, la historia es diferente. Los televisores de rango dinámico estándar generalmente producen entre 300 y 500 nits, pero algunos televisores HDR apuntan más alto, incluso a miles de nits.

HDR TV

Hay múltiples formatos en HDR, pero actualmente hay dos jugadores principales: el formato patentado Dolby Vision, y el estándar abierto HDR10. Dolby fue el primero en unirse a la fiesta con un prototipo de TV capaz de mostrar hasta 4,000 nits de brillo. Durante un corto tiempo, Dolby Vision era esencialmente sinónimo de HDR, pero no todos los fabricantes querían seguir las reglas de Dolby (ni pagar sus honorarios), y muchos empezaron a trabajar en sus propias alternativas. Los fabricantes populares, incluidos LG, Samsung, Sharp, Sony y Vizio, acordaron un estándar abierto llamado HDR10.

En abril de 2016, la UHD Alliance —un grupo industrial formado por compañías como Samsung, LG, Sony, Panasonic, Dolby y muchos otros— anunciaron la certificación Ultra HD Premium para reproductores Blu-ray UHD. Este punto establece algunos objetivos de referencia para HDR, como la capacidad de mostrar hasta 1,000 nits de brillo y una profundidad de color mínima de 10 bits. Tanto HDR10 como Dolby Vision cumplen con los estándares establecidos por esta certificación, aunque de formas distintas.

HDR10 y HDR10+

Si bien Dolby Vision puede haber sido el primero, actualmente no es el formato más popular. El más conocido es HDR10, compatible con una buena cantidad de fabricantes de televisores. El estándar HDR10 fue codificado por la Consumer Technology Association —el mismo grupo responsable de la organización del CES. La especificación utiliza actualmente una profundidad de color de 10 bits, mientras que Dolby Vision usa 12 bits. Ambos ofrecen millones de colores por píxel, y la diferencia es difícil de detectar.

Los dos principales formatos HDR usan metadatos que se desplazan a lo largo de la señal de video por un cable HDMI, metadatos que permiten que el video de origen “le indique” a un televisor cómo mostrar los colores. HDR10 utiliza un enfoque bastante simple: envía metadatos de una vez y al comienzo de un video, diciéndole algo así como: “Este video está codificado usando HDR, y debes tratarlo de esta manera”.

El HDR10 se ha convertido en el más popular de los dos formatos. Por sobre todo, es un estándar abierto: los fabricantes de TV pueden implementarlo de forma gratuita. También es recomendado por la UHD Alliance, que generalmente prefiere estándares abiertos a formatos con derechos de propiedad, como el Dolby Vision.

Luego está el HDR10+, que Samsung y Amazon anunciaron en abril de 2017. A diferencia del original HDR10, el HDR10+ ofrece características mucho más cercanas a las proporcionadas por Dolby Vision, incluidos metadatos dinámicos que permiten a los televisores ajustar el brillo escena por escena, e incluso cuadro por cuadro. También como Dolby Vision, HDR10+ usa una profundidad de color de 12 bits. Inicialmente, sólo estaba disponible en los televisores Samsung, aunque ahora también lo estará en la línea OLED 4K 2018 de Panasonic, presentada recientemente en el CES 2018.

Dolby Vision

HDR10 está en más televisores, pero puede que esto no siga siendo así en el futuro. En términos de poder tecnológico puro, Dolby Vision tiene una clara ventaja, incluso con los televisores de hoy en día. Mirando hacia el futuro, la brecha entre Dolby Vision y HDR10 podría ampliarse.

Como se mencionó anteriormente, Dolby Vision admite una profundidad de color de 12 bits, a diferencia de la profundidad de color de 10 bits admitida por HDR10. También presenta mayor brillo teórico. HDR10 actualmente alcanza un máximo de 1,000 nits mientras que Dolby Vision puede llegar a los 4,000 nits. (Dolby asegura que en el futuro podrían permitir hasta 10,000 nits de brillo máximo).

La profundidad de color no es la única área donde Dolby Vision tiene una ventaja teórica sobre HDR10. Mientras que HDR10 transmite sólo metadatos estáticos (cuando un video comienza a reproducirse), Dolby Vision usa metadatos dinámicos, que pueden variar por escena, o incluso por cuadro. Las ventajas aquí son principalmente teóricas, pero a medida que los proveedores de contenido se vuelvan más hábiles para dominar el cine y la televisión para HDR, los metadatos dinámicos podrían ser una gran ventaja.

HDR10 puede actualmente tener un mejor soporte, tanto en términos de televisores como de contenido, pero Dolby está trabajando duro para cambiar esto. Inicialmente, Dolby Vision necesitaba hardware específico para funcionar, lo que significa que no se podía agregar después, a través de una actualización de firmware. Eso cambió en febrero de 2017, y los fabricantes de televisores Blu-ray y Ultra HD —teóricamente— podrán agregar soporte más adelante. Y aunque HDR10 fue el primer formato compatible con reproductores Blu-ray Ultra HD, LG y Philips anunciaron reproductores UHD con Dolby Vision en CES 2017.

Otros actores

Dolby Vision y HDR10 se consideran actualmente como los dos principales protagonistas en HDR, pero hay otras compañías trabajando con sus propias soluciones HDR, con dos nuevos formatos emergentes

Hybrid Log Gamma (HLG) es un formato de la BBC y la emisora ​​japonesa NHK. HLG se desarrolló con un enfoque en transmisión en vivo, aunque también se puede usar para contenido pre-grabado. A diferencia de HDR10 y Dolby Vision, HLG no usa metadatos, lo que podría ser una ventaja, dependiendo de cómo los fabricantes de TV lo implementen.

Technicolor fue uno de los primeros en HDR, y en CES 2016, la compañía anunció que ella y Philips habían combinado sus esfuerzos en HDR y estaban trabajando en un nuevo formato. Al igual que HLG, este formato pretende ser compatible con las pantallas SDR, que según las compañías en un comunicado de prensa “simplificará las implementaciones HDR para los distribuidores, pudiendo enviar una señal a todos sus clientes, independientemente de la TV que tengan”. “En el CES 2018, Philips acaba de anunciar que sus televisores 2019 admitirían Technicolor HDR y el estándar de transmisión ATSC 3.0.