LG OLED 2020: BX, CX, GX, RX y ZX (8K)

film-score-fan

Miembro 1080p
Registrado
22 Abril 2019
Siendo totalmente agnóstico en cuanto a marcas y amante de los estándares abiertos y cuántas más funciones tengan nuestras teles, mejor, pienso que Samsung no soporte el mejor Tone Mapping Dinámico que existe, Dolby Visión, me parece una estupidez por parte de Samsung. Que sí, que está muy bien ampliar el perfil HDR10 y darle unos valores dinámicos artificiales escena a escena, y hacer un estandar "libre" con tal de no pagarle unas perras a Dolby, que es de lo que se trata al final, Samsung no quiere pagarle perras a Dolby por licencias y tal, pero es que Dolby Visión no solo usa un espacio de color mayor, con mayor profundidad de bits y a mayor bitrate, es que hace Tone Mapping FRAME a FRAME. HDR10+ es un inventillo en comparación con el que se ha empeñado Samsung.

Que Samsung y Amazon apoyen HDR10+ es igual a nada en el devenir de la industria audiovisual. Más que nada porque HDR10+ es una extensión del container HDR10 y tiene sus limitaciones con respecto a Dolby Visión, que es bastante mejor y tal entre otras cosas porque masteriza a mayor profundidad de bits. También, muchas rooms de colorimetría y/o masterizado se montan por Dolby o tienen equipos de hardware calibrados por Dolby Laboratories, HDR10+ supongo que serán perfiles de software, no me he molestado en mirar la verdad. Dolby Laboratories lleva muchas décadas proveyendo a la industria y los usuarios de standards y herramientas tanto en sonido como en imagen, desde la grabación a la colorimetría, mixing y masterizado tanto en imagen como sonido a la proyección en salas o nuestro salón. Vamos, es que no hay color. :LOL:

Me gustaría ver qué está Samsung preparando para un futuro en contraposición a lo que se está cocinando ahora mismo en la división de I&D de Dolby Laboratories. Porque al final del día, Samsung fábrica teles y lavadoras, Dolby fabrica CINE. :D
Espectacular post. Bravo.

PD: Cierto, yo dije escena a escena pero es mejor que eso, es FRAME A FRAME.
 

ion80

Miembro 720p
Registrado
9 Febrero 2020
Siendo totalmente agnóstico en cuanto a marcas y amante de los estándares abiertos y cuántas más funciones tengan nuestras teles, mejor, pienso que Samsung no soporte el mejor Tone Mapping Dinámico que existe, Dolby Visión, me parece una estupidez por parte de Samsung. Que sí, que está muy bien ampliar el perfil HDR10 y darle unos valores dinámicos artificiales escena a escena, y hacer un estandar "libre" con tal de no pagarle unas perras a Dolby, que es de lo que se trata al final, Samsung no quiere pagarle perras a Dolby por licencias y tal, pero es que Dolby Visión no solo usa un espacio de color mayor, con mayor profundidad de bits y a mayor bitrate, es que hace Tone Mapping FRAME a FRAME. HDR10+ es un inventillo en comparación con el que se ha empeñado Samsung.

Que Samsung y Amazon apoyen HDR10+ es igual a nada en el devenir de la industria audiovisual. Más que nada porque HDR10+ es una extensión del container HDR10 y tiene sus limitaciones con respecto a Dolby Visión, que es bastante mejor y tal entre otras cosas porque masteriza a mayor profundidad de bits. También, muchas rooms de colorimetría y/o masterizado se montan por Dolby o tienen equipos de hardware calibrados por Dolby Laboratories, HDR10+ supongo que serán perfiles de software, no me he molestado en mirar la verdad. Dolby Laboratories lleva muchas décadas proveyendo a la industria y los usuarios de standards y herramientas tanto en sonido como en imagen, desde la grabación a la colorimetría, mixing y masterizado tanto en imagen como sonido a la proyección en salas o nuestro salón. Vamos, es que no hay color. :LOL:

Me gustaría ver qué está Samsung preparando para un futuro en contraposición a lo que se está cocinando ahora mismo en la división de I&D de Dolby Laboratories. Porque al final del día, Samsung fábrica teles y lavadoras, Dolby fabrica CINE. :D
Amén hermano.
 

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
Por cierto de la review de flatpanels hay varias cosas que están mal y van a corregir:

- Tanto la CX como la C9 tienen soporte completo G-Sync incluyendo HDR, en la review comentaba lo contrario.
- Según Larsen, la C9 recibirá una actualización donde también veremos el Dolby Vision IQ.

Ya si la diferencia enrtre modelos era enana ahora es pírrica.
 

truskis

Miembro UHD SDR
Registrado
16 Junio 2019
Podían meter el modo Filmmaker también... Pero me da que no...

¿De lo que no se sabe nada es de Freesync no? Por el tema de que la PS5 pueda venir sólo con ese sistema...
 

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
No se sabe, yo hace tiempo que dije que si vendría.

El filmmaker me da igual, ya habéis visto que es exactamente igual que el modo Cine
 

truskis

Miembro UHD SDR
Registrado
16 Junio 2019
Es el Technicolor SDR y HDR pero con cálido 2. Y es el mismo modo que el Dolby Vision Cine. Pero bueno, porque unificaran todo en un mismo modo más que nada. Pero vamos, poca o ninguna novedad. ¿Comprarás la de este año? Me imagino que "afinaran" del todo el tema de los flashes, que yo los sigo teniendo en ciertos contenidos HDR con brillo en 50.
 

Zexibloodlust

Miembro 720p
Registrado
20 Enero 2020
Podían meter el modo Filmmaker también... Pero me da que no...

¿De lo que no se sabe nada es de Freesync no? Por el tema de que la PS5 pueda venir sólo con ese sistema...

En principio deberia soportar con VRR hdmi 2.1 y con eso seria suficiente. Si lo ponen sera por firmware. Lo que pasa es que por vrr se parte de 40-45fps para arriba y eso igual a los desarrolladores o a sony no les hace gracia. Con freesync no pasa.

Yo espero que se porten y lo activen en c9. Buena noticia eso del dolby vision IQ

Buscando más información:

VRR came into play and allowed monitors to handle the refresh sync. With VRR the display matches the device refresh rate as opposed to the other way around. G-Sync and Free-Sync are both forms of VRR. The biggest difference between the two is G-Sync requires a module in the display while FreeSync uses the Adaptive-Sync protocol that was built into DisplayPort and later HDMI.

With G-Sync, the module is handling the bulk of the work as opposed to the GPU. Although FreeSync doesn't put nearly as much of a load on the GPU as V-Sync did!

Pues parece ser que el freesync no deberia haber problema en ponerlo como firmware ya que este es un protocolo que se activa mediante DP o HDMI. Mientras que G-Sync es necesario un modulo de hardware (por suerte, del cual ya tenemos). Eso si, el v-sync siempre me pareció un mojón, en pc lo desactivas limitando el framerate, en consolas no sé si lo hace pero para evitar eso esta el freesync y el VRR.

Lo que no sé si el nuevo gsync ultimate sera por hardware o software que traeran algunos monitores mini led de este año
 
Última edición:

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
Acaba de confirmar D-Nice que la estructura de pixeles de las CX es exactamente igual que las de las C9.

Lo que comenté de la review de flatpanelshd: es exactamente la misma tele...o hasta peor. ¡Se han cargado el soporte de DTS!!
 

Adjuntos

Última edición:

truskis

Miembro UHD SDR
Registrado
16 Junio 2019
Madre mía... menos mal que pillé la C9 y no esperé a la de este año... Yo que valoro mucho el "todo en uno" y que reproduzco todo con el reproductor interno... esto me habría hecho polvo. Decisión incomprensible aunque supongo que vendrá de las productoras
 

willrock66

Miembro UHD SDR
Registrado
25 Mayo 2019
Ubicación
Madrid
Es decir, que a mí el eARC nada más que me vale para tener el Oppo conectado a la TV (no sé por qué el AVR se me hace un lío si tengo el Oppo conectado a los 2 dispositivos) y si no hace passthrough las TVs del 2020, vaya gracia que me haría y más nos hará cuando las apps internas de la TV emitan con sonido HD y no pasan por eARC ni en las del 2019 y ni las del 2020.
 

fercupramx

Miembro 1080i
Registrado
3 Junio 2019
Estoy por comprar una oled de 55” para usar de monitor para una gamer pc, en este momento por cual se irian¿ lg C9 o Bx... en mexoco llego primero la BX por lo cual la CX no es opcion

gracias
 

Ashtyr

Miembro 1080p
Registrado
17 Octubre 2019
Siendo totalmente agnóstico en cuanto a marcas y amante de los estándares abiertos y cuántas más funciones tengan nuestras teles, mejor, pienso que Samsung no soporte el mejor Tone Mapping Dinámico que existe, Dolby Visión, me parece una estupidez por parte de Samsung. Que sí, que está muy bien ampliar el perfil HDR10 y darle unos valores dinámicos artificiales escena a escena, y hacer un estandar "libre" con tal de no pagarle unas perras a Dolby, que es de lo que se trata al final, Samsung no quiere pagarle perras a Dolby por licencias y tal, pero es que Dolby Visión no solo usa un espacio de color mayor, con mayor profundidad de bits y a mayor bitrate, es que hace Tone Mapping FRAME a FRAME. HDR10+ es un inventillo en comparación con el que se ha empeñado Samsung.

Que Samsung y Amazon apoyen HDR10+ es igual a nada en el devenir de la industria audiovisual. Más que nada porque HDR10+ es una extensión del container HDR10 y tiene sus limitaciones con respecto a Dolby Visión, que es bastante mejor y tal entre otras cosas porque masteriza a mayor profundidad de bits. También, muchas rooms de colorimetría y/o masterizado se montan por Dolby o tienen equipos de hardware calibrados por Dolby Laboratories, HDR10+ supongo que serán perfiles de software, no me he molestado en mirar la verdad. Dolby Laboratories lleva muchas décadas proveyendo a la industria y los usuarios de standards y herramientas tanto en sonido como en imagen, desde la grabación a la colorimetría, mixing y masterizado tanto en imagen como sonido a la proyección en salas o nuestro salón. Vamos, es que no hay color. :LOL:

Me gustaría ver qué está Samsung preparando para un futuro en contraposición a lo que se está cocinando ahora mismo en la división de I&D de Dolby Laboratories. Porque al final del día, Samsung fábrica teles y lavadoras, Dolby fabrica CINE. :D

Bufff muchas cosas que aclarar.

HDR10+ lo sacaron 20 century FOX, Panasonic y Samsung, no es un "inventillo" del conserje de Samsung en sus ratos libres.

Segundo el HDR10+ tambien va frame a frame, no se porque dices que solo lo hace DV.

DV es mejor, si en numeros si, pero claro luego lo ves en paneles que no pueden sacar provecho de el , no vas a ver paneles de 12 bits, ni con los suficientes nits, con lo que al final te comes un huevo de tone mapping, y ya sabemos lo que ello conlleva.

A la hora de la verdad las diferencias son que el HDR10+ soporta hasta 4000 nits frente a los 10000 de DV
Y que el HDR10+ es a 10 bits frente DV que soporta hasta 12bits.
Ambos soportan datos dinamicos frame a frame exctamente de la misma forma.

Hoy por hoy con los numeros en la mano en realidad la mayoria de peliculas se encuadran dentro de los margenes de HDR10+ y va a seguir asi por mucho mucho mucho tiempo.

Asi que siento decirte que en realidad si ambos metodos estan bien implementados poca diferencia vas a ver.


Luego ya hablando de si LG convierte un HDR10 en HDR10+ " al vuelo" la respuesta es no, si puede aplicar un tone mapping dinamico, de hecho la Samsung lo hace tambien, pero no llega al nivel del HDR10+ ni del DV obviamente.

Con todo el respeto del mundo no veo la necesidad de desmerecer a uno para hacer ver mejor al otro.

Un saludo
 

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
En realidad no es así del todo, ya puso @calibrador varias comparativas donde el HDR10 con tone mapping y el HDR10+ eran 99% idénticos, mientras que el DV si que era bastante diferente en algunas demos y tomas concretas con muchos nits y demás.

Básicamente Dolby si masteriza frame a frame sus películas en un laboratorio con un colorista y un director de fotografía. Y la capa resultante es una especie de "mapa de calor" que se aplica sobre la capa que contiene el vídeo normal.

HDR10+ es, básicamente, un HDR10 normal con un archivo (imaginaos un txt por ejemplo) que le indica al reproductor en que partes de la película tiene que ir modificando la curva PQ EOTF. Eso es exactamente lo mismo que hace LG con su Dynamic Tone Mapping por ejemplo, de ahí que las diferencias sean pírricas. ¿Cual es la diferencia, entonces? que el archivo del HDR10+ se supone que lo hace un estudio, profesionales, etc que ven donde hace falta modificar la curva y donde no, mientras que el Dynamic Tone Mapping lo hace una CPU mediante una serie de algoritmos "al vuelo". Pero la técnica es exactamente igual.

Dolby Vision es un animal completamente distinto. Al margen de que se masteriza a 12 bits directamente, etc.

Resumen:

HDR10 --> Metadatos estáticos genéricos para toda la peli.
HDR10+ --> Metadatos estáticos genéricos para toda la peli que luego se intentan cambiar a dinámicos a posteriori modificando la curva (esto hará que de el pego muchas veces, pero otras oscurecerá mucho o lavará mucho la imagen, ya que no hay control sobre la imagen, solo se puede subir o bajar la curva, como hace LG con el Dynamic Tone Mapping).
Dolby Vision --> Metadatos dinámicos reales, control total sobre la imagen y todas las partes de la misma, aplicando nits exactamente donde se requiere y además frame a frame.

Al margen de todo eso, para mi la diferencia entre HDR10+, HDR10 con Tone Mapping y Dolby Vision son tan sutiles que en el 90% de los casos no te darías cuenta. Y eso sin mencionar que muchas veces gusta hasta más la versión HDR10 (caso de LG) o que la implementación del HDR10+Tone mapping es superior a la del dolby vision (caso de las Sony por ejemplo). En algunas películas si se nota más el Dolby Vision, pero pocas la verdad.

Comparativas de @calibrador :


Ejemplos:

DOLBY VISION


HDR10 4000 NITS / P3 CON TONEMAPPING (UB9000, HDR OPTIMIZER)


GZ950 HDR10 4000 NITS / P3 SIN TONEMAPPING
 
Última edición:

Ashtyr

Miembro 1080p
Registrado
17 Octubre 2019
En realidad no es así del todo, ya puso @calibrador varias comparativas donde el HDR10 con tone mapping y el HDR10+ eran 99% idénticos, mientras que el DV si que era bastante diferente en algunas demos y tomas concretas con muchos nits y demás.

Básicamente Dolby si masteriza frame a frame sus películas en un laboratorio con un colorista y un director de fotografía. Y la capa resultante es una especie de "mapa de calor" que se aplica sobre la capa que contiene el vídeo normal.

HDR10+ es, básicamente, un HDR10 normal con un archivo (imaginaos un txt por ejemplo) que le indica al reproductor en que partes de la película tiene que ir modificando la curva PQ EOTF. Eso es exactamente lo mismo que hace LG con su Dynamic Tone Mapping por ejemplo, de ahí que las diferencias sean pírricas. ¿Cual es la diferencia, entonces? que el archivo del HDR10+ se supone que lo hace un estudio, profesionales, etc que ven donde hace falta modificar la curva y donde no, mientras que el Dynamic Tone Mapping lo hace una CPU mediante una serie de algoritmos "al vuelo". Pero la técnica es exactamente igual.

Dolby Vision es un animal completamente distinto. Al margen de que se masteriza a 12 bits directamente, etc.

Al margen de todo eso, para mi la diferencia entre HDR10+, HDR10 con Tone Mapping y Dolby Vision son tan sutiles que en el 90% de los casos no te darías cuenta. Y eso sin mencionar que muchas veces gusta hasta más la versión HDR10 (caso de LG) o que la implementación del HDR10+Tone mapping es superior a la del dolby vision (caso de las Sony por ejemplo).

Comparativas de @calibrador :


Ejemplos:

DOLBY VISION


HDR10 4000 NITS / P3 CON TONEMAPPING (UB9000, HDR OPTIMIZER)


GZ950 HDR10 4000 NITS / P3 SIN TONEMAPPING

HDR10+ si actualiza frame a frame, pero que puedas hacerlo no significa que lo usen, en muchas se hace escena a escena.

HDR10+ dynamic metadata, on the other hand, can adjust brightness levels, color saturation, and contrast on a scene-by-scene or even frame-by-frame basis, producing images that are closer to the director's intent.
https://alliance.experienceuhd.com/news/what-hdr10


Y como en toda comparativa segun que veas resultara una u otra mejor, o peor, ya que dependera de "lo bien " que este hecho.

Pero si tengo claro algo es que al final es mas importante en donde la veas que en que formato de HDR la veas.

Por cierto te dejo este video, no se si lo conocias, posiblemente la mejor comparativa que he visto, esta en HDR asi que si podeis verla asi.


Y esta otra la cojo con pinzas, por un tema que no viene al caso ahora


Y las primeras imuestras de HDR10+ si es cierto que no hay apenas diferencias, pero en las ultimas peliculas que he visto y comparado se nota la diferencia, y me jode por que uso la XBOX como reproductor y no soporta HDR10+, con lo que algunas peliculas que tengo originales me ha tocado bajarlas en remux para poder verlas por HDr10+ por USB

Al margen de todo eso, para mi la diferencia entre HDR10+, HDR10 con Tone Mapping y Dolby Vision son tan sutiles que en el 90% de los casos no te darías cuenta
EN esto si qu eno puedo estar mas que al 10000% de acuerdo, al final te toca muchas veces mirar con lupa y cuando hay diferencias es en muchas ocasiones, y no descarto que sea asi en las que yo lo he notado, por que alguno de los metodos no esta bien implementado


Un saludo
 
Última edición:

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
Si si, no digo que no se haga frame a frame. Digo que cambia la curva estática frame a frame, que no es lo mismo.

Dolby Vision no cambia la curva, si no que realmente modifica partes de la imagen frame a frame. Más brillo en esta parte, menos en esa, el sol con la curva asá, los reflejos del agua así etc.

HDR10+ lo que haría sería, mediante el fichero citado, indicarle al reproductor que esa escena es mejor que la curva PQ EOTF sea X, porque así se verá mejor que de serie. Pero no puede tocar nada de la imagen en sí ni partes de esta. El HDR10 con Dynamic Tone mapping haría exactamente lo mismo, solo que en lugar de tener un fichero que le diga donde modificar la curva, lo hace automáticamente en función de lo que la CPU considere.

Y luego está EL HDR10 normal, que aplica la misma curva PQ EOTF a toda la peli entera.

Gráficamente sería así:

HDR10 normal --> Misma curva PQ EOTF para toda la película



HDR10+ y HDR10 con Dynamic Tone Mapping (iguales, salvo que en el primero tiene un archivo que le indica donde modificar la curva y en el segundo lo decide la CPU "al vuelo") --> La curva PQ EOTF va cambiando escena a escena o frame a frame:



Dolby Vision --> Cada frame es diferente al otro y cada parte de la imagen tiene sus propios nits, masterizado, curva, etc. Cada frame de la película! Una bestialidad. Esta es una foto mía de la capa Dolby Vision de una película, cada color indica unos nits diferentes:



Eso hace que en algunas situaciones, DV sea superior a HDR10+ y al HDR10+DTM, en el ejemplo de Tha_Villaman tienes varios frames donde el HDR10+ se ve algo más "lavado" o "aplastado" en algunas escenas, Dolby siempre está donde debe. ¿Por qué? Porque se creó así, mientras que el HDR10+ se crea a posteriori sobre un HDR10 normal, jugando simplemente con la curva...por lo que es imposible que se vea perfecto en algunas situaciones.

De la comparativa de @calibrador , para que veas lo que quiero decir:

DV --> Se ve perfecto, ese frame se masterizó en Dolby y cada parte de la imagen tiene exactamente la curva, nits, color, etc. correctos:



HDR10+ --> Basándose en un frame HDR10 con metadatos estáticos, intenta modificar la curva. ¿Qué ocurre? que si la baja mucho se oscurece demasiado, si la sube mucho, quema los detalles. Al final, como hace LG con el Dynamic Tone Mapping, intenta llegar a un "compromiso", pero se nota más lavada y se ve claramente peor que el mismo frame en Dolby Vision:



Luego, en la práctica y como comentas, yo diría que un 85-90% son iguales (DV, HDR10+ y HDR10 con DTM), pero en ese otro 15-10% si que Dolby retiene mejor los detalles especulares, altas luces, etc.

Soy de los que cree que es por la limitación tecnológica. Si dentro de 10 años vemos TVs que lleguen a dar 10 mil nits y cobertura BT.2020 del 100% con ausencia de backlight (QNED, MicroLED u OLED) quizá ahí si veamos la mejora de Dolby Vision.

Un saludo.
 

nonehxc

Miembro 1080i
Registrado
5 Octubre 2019
A ver, @Ashtyr , sin pretender soliviantar a alguien...

para aclararle algo a alguien primero deberías saber, y no creo que sepas de lo que hablas. Yo sí. Sin acritud, simplemente estás equivocado y repites ideas erróneas de foros de electrónica de consumo y videos de llutube.

HDR10+ sí que es inferior y mucho a Dolby Visión, no obstante Samsung no tiene ni pajolera idea de teoría,física y aplicación del color y Dolby son MAESTROS. Samsung son unos coreanos que sueldan resistencias y chips en PCBs y desarrollan tecnología de proyección que, mayormente, otros han investigado y creado,y se la compran(como LG hizo con la tecnología OLED que le compraron a Kodak). Dolby investiga, desarrolla e implementa imagen desde antes que ambos nacieramos.

No sabes ni en qué está basado HDR10/HDR10+, ni quién lo inventó, ni quién lo popularizó. Como mucho te habrás leído algún bullet point del white paper de HDR10+ y puede, aunque lo dudo, que el A de la UHD Alliance y habrás confiado mucho en foros y llutube para hacerte una idea parcial.

No sabes quién empezó todo esto? Que es PQ=SMPTE 2084=HDR10, que lleva a SMPTE-2094-40/HDR10+, que es la columna vertebral de TODO el HDR, por no decir de la transferencia de imagen digital moderna? Quién lo inventó y desarrollo? Quién hizo que fuera un estándar de facto antes de que la SMPTE lo adoptara, como y porqué?

PUES FUE DOLBY LABORATORIES!!! :LOL:

Dolby, como ha hecho siempre, estudia, inventa y avanza la imagen y el sonido. Samsung fábrica teles, móviles y lavadoras. Punto. A los hechos me remito:

Presentación PQ anterior a SMPTE-2084

Presentación PQ 2 anterior a SMPTE-2084

Dolby Laboratories investigó, como siempre ha hecho, el color. Antes se masterizaba a través de CRT con consolas y monitores que usaban una función de transferencia diferente. Por qué no sirve en el mundo digital? Leete la primera presentación de la SMPTE.

Así que Dolby se pone a lo suyo y desarrolla PQ, una función de transferencia y cuantización del color. Trata de acercar el espectro transferible desde la cámara a datos (OOTF)y de los datos a la proyección en masterizado y colorización y, finalmente, en salas y televisiones(EOTF), a la percepción absoluta del ojo humano, porque lo anterior no valía ya. La desarrolla en base a un prototipo suyo, el primer prototipo existente donde se usa espacio de color DCI-P3, con alto rango dinámico (HDR) y alto contraste. Con este investiga tanto la creación del color a EOTF como la percepción visual y mil zarandajas más. Punto para Dolby.

En base a sus investigaciones con este y otros prototipos, Dolby saca el Dolby Pulsar PRM-4200 a finales de 2010, primer monitor de colorimetría y masterizado de pantalla plana con transporte digital, alto contraste, espacio de color y rango dinámico, primera cosa que usa PQ, primer producto que transfiere fielmente el color capturado (cámara a datos) a EOTF(datos a proyector). Se convierte en el estándar de facto de la industria de la imagen porque es tan insultantemente bueno y superior a cualquier cosa en ese momento o el pasado que no hay color, nunca mejor dicho jajaja. Todo el mundo o tiene uno o quiere uno. Dolby prácticamente inventa la transmisión y proyección HDR en cine y televisión. Punto para Dolby.

Mientras, el HDR es un Salvaje Oeste de pollos sin cabeza, sin estándares ni na. Unos hacen un HDR, otros otro, otros ninguno, todos engañan a los consumidores y la única honesta es Dolby, ya que usa su propia tecnología, función y algoritmos. La SMPTE invita a Dolby, que veían la necesidad de estandarizar el HDR como algo vital, a presentar PQ ya que estaba pensando en estandarizar el sindios del HDR y UHD a través de la tecnología y algoritmos claramente superior de Dolby, y lo hace.Léase documento 2 de presentación de PQ. Punto para Dolby.

Posteriormente la SMPTE pública el estándar SMPTE-2084 basado en PQ de Dolby, que graciosamente aporta al estándar, basado en un espacio de color, Rec. 2020 dentro de DCI-P3, que es el que Dolby usó para desarrollar PQ. Dolby inventa el UHD HDR, como capturar el color, manejarlo y transferirlo. Usa los algoritmos de transporte de Dolby sobre HDMI y otros interfaces, usa el espacio de color elegido por Dolby para desarrollar PQ, se usa su hardware de masterizado, sus funciones de transferencia. Fácil porque toda la cadena podía usar PQ, ya estaba de facto en gran parte, eran los fabricantes de displays de consumo general que como siempre, tienes que atarles con el lazo de un estándar o hacen lo que les sale del pixel. Punto para Dolby, lease presentación de SMPTE-2084 a continuación.

Presentación SMPTE-2084

Dolby saca Dolby Vision, que es una aplicación superior de la teoría detrás de la creación de PQ EOTF, porque, recordemos, Dolby lleva la tira de tiempo con PQ.

Se crea la UHD Alliance, principalmente fabricantes de electrónica de consumo y sacan HDR10 basado en SMPTE-2086, que no es más que SMPTE-2084 y especificar MaxCC/MaxFALL=metadatos estáticos según las capacidades de la TV/display. Punto para Dolby.

Mientras Dolby sigue a lo suyo con su Dolby Vision.

Un año o dos después, se publica SMPTE-2094, luego conocido como SMPTE-2094-10 a medida que Phillips(-20), Technicolor(-30) y por último Samsung(-40) especifican su saborcico para cambiar dinámicamente la imagen, su color y luminancia. Estándar HDR con metadatos dinámicos. quién es el primero que lo hace, explica a SMPTE y establece los parámetros de lo que debe ser HDR con metadatos dinámicos? Quién es ese SMPTE 2094 que luego pasó a 2094-10? Dolby.

Samsung y Amazon no quieren darle un duro a Dolby por Dolby Vision, vete a saber que pasaría pero intuyo que nada bonico en esa reunión, se alían y a base de mandar al conserje y al becario a la SMPTE se montan un estándar que no está nada mal pero no deja de ser SMPTE-2084 con alguna regla más, llamado HDR10+. El edificio entero sigue siendo PQ, Samsung solo le ha puesto una pegatina pa llamar al cerrajero en el dintel de la puerta. Punto para Dolby.

Entonces con ese saborcico de SMPTE 2094-40 Samsung hace HDR10+, que reitero que no es más que el inventillo del conserje de Samsung, porque las matemáticas se le dan mal al pobre coreano, y como no puede tratar el color, trata la proyección de la imagen en la tele. Modula la luminosidad de la proyección en un muy último paso a partir de SMPTE 2084, no mete mano al color y su transferencia de cámara a datos y de datos a proyector/display simplemente porque conserje no entender ni nunca lo hará. Y esto es porque Samsung se empeñan en la tecnología LED mientras todo el resto de la cadena desde el objetivo de la cámara hasta las teles está usando OLED. Le mete los Quantum Dots de otra compañía, que es un muy buen inventillo intermedio entre LED y OLED para tener color porque si no como cojones va siquiera a acercarse al espacio de color necesario para mostrar HDR en condiciones como si hace OLED. De luminosidad va sobrado. Y no puede hacer Tone Mapping Dinámico frame a frame por una sencilla razón... porque las zonas de atenuación son inferiores a las de la tecnología OLED que son 8 millones y pico, y tienen más latencia las zonas de atenuación LED, entonces por eso lo hace escena a escena, es su inventillo para tener modulación dinámica del brillo, no del color, y proyectar bien. Buena e ingeniosa solución a los problemas inherentes de la tecnología LED aún aplicándoles QD, pero no deja de ser un compromiso. No puede hacer postprocesado frame a frame porque ni la CPU seguramente tenga la potencia necesaria, ni sería bonico ver un espectáculo de color aberrante, donde la imagen va por delante de su color. Samsung y Amazon se alían para extenderlo, no así desarrollarlo.

SMPTE 2094-40

Dolby Vision es superior porque Dolby creó el HDR que hoy día conocemos. Porque prácticamente todo el ecosistema HDR se asienta o bebe de sus investigaciones, teoría, prototipos y productos. Porque proveyó de PQ sobre BT 2020 que viene de DCI-P3 al mundo. Porque el estándar HDR10 se basa en su trabajo. Porque mientras los demás usan PQ a secas en HDR10/HDR10+, Dolby lleva años usando ICtCp sobre PQ, que es una función de transferencia superior a PQ EOTF. Porque manipularon el transporte de datos de HDMI, TMDS, de forma tan ingeniosa que consiguieron meter 12bits de color+metadatos dinámicos en 10bits hasta HDMI 1.4 y al HDMI Forum les molo tanto que lo incluyeron en la especificación. Porque piensa a futuro y prevee displays de más nits. Porque lleva los datos en el frame, y no es, hablando mal, un filtro HDR sobre HDR10 que aplica el display modulando brillo (sobredensionado muchas veces), adaptándolo a la capacidad de nits de la tele. Porque de mapeo de color ni hablamos, ya que Samsung no creo que ponga al pobre conserje a estudiar a ver si mágicamente se le ocurre una función de transferencia y la industria lo acepta, como sí ha hecho con PQ e ICtCp.

Y ahora te digo por qué entre HDR10+ y Dolby Vision en displays de alta gama a veces hay tan poca diferencia. Los coloristas y masterizadores influyen, depende de que trabajo le quieran meter a HDR10/Dolby Vision, si a una, a otra o a ambas. HDR 10+ importa bien poco, porque como he dicho es indicarle al display y ahora súbele el brillo aquí, y ahora bajamelo allí, técnicamente. El meollo de HDR10+ está en HDR10.

Se debe a la tecnología de Display para consumidor, como ha dicho Tocinillo. QLED basado en LED y OLED basado en mismamente. Samsung tiene brillo a espuertas, y usa QD para aumentar el volumen de color y acercarse al color de referencia, pero ay amigo, por un lado del espectro tiene mucho, por otro poco. Por eso escapa al espacio de color, que por otra parte, tiene colores más vivos debido a ese brillo y a ir a locas con el volumen de color. Mete zonas de atenuación porque es la única manera de que QDLED/LED sea dinámico. Es diferente, Mola. Pero ni de coña puede llegar a mostrar frame a frame porque se volvería loca la pantalla así que desarrolla su aportación a la SMPTE-2094-40, que es la base de HDR10+ como una forma de modular el brillo dinámicamente, que por otra parte apoyo totalmente porque no todo puede ser el máximo o si no NADA. Así puedes dotar a teles LED de un mejor HDR, y es abierto. Nada que objetar.

OLED es mucho más preciso al mostrar el color pero le falta brillo, lo puedes meter pero los pixeles OLED se quemarán debido al calor. Como se soluciona ahora? Refrigerando OLED. Prácticamente todos los monitores de masterizado buenos son OLED, tienen un brillo acojonante y una representación de color DCI-P3 que ya quisieramos ver por aquí gracias a su sistema de refrigeración. Panasonic toma nota y saca un panel con refrigeración gorda, no tan gorda como un monitor de masterizado pero oiga, que OLED ya está en los 1000nits. Por eso se ve mejor que cualquier otra. Y a igualdad de nits siempre se verá mejor un OLED/QDOLED/microLED que un QDLED simplemente porque es una tecnología emisiva independiente a nivel pixel sin tanto filtro ni atenuación, con mayor contraste y definición por tener menos capas de proyección y tener un contraste cercano a 0 a infinito entre medias, técnicamente, y menos latencia. Por eso LG se lanzó de cabeza a apoyar Dolby Vision, por el brillo de sus paneles OLED que era un pestiño hasta tiempos recientes comparado con QDLED, y necesitaban sí o sí mapear el color en HDR. Por eso su algoritmo de mapeado dinámico de la tele es tan bueno, porque llevan dándole al martillo del mapeado más tiempo que nadie a excepción de Dolby.

Dolby Vision tiene diferentes perfiles y tu los vas ajustando según parámetros del display hoy y mañana, está preparado a futuro. HDR10+ es actualmente(no así en un futuro cuando usé tecnología emisiva, que podrá usar otros de los specs del white paper de HDR10+) un remedio de Samsung, por otra parte muy bueno, eficiente y abierto, pero inferior a Dolby Vision, para dotar de Tone mapping dinámico a una tecnología finita a la que le quedan 4 telediarios a tenor de sus ansias de cerrar ya LED, ponerse con QDOLED y en un futuro, microLED.
 

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
Aunque coincido en mucha parte del mensaje y del fondo, no en las formas. No hace falta ese tono ni formas con un compañero.

Al margen que decir que "Samsung son unos coreanos que sueldan chips Y PCBs"....pues hombre...
 
Arriba