Comparativa/Shootout 2019 Vincent Teoh y Hdtvtest: debate

Y otra donde se ve mejor el banding y posterización.

El propio Tyler comenta que el problema no se ve cuando bajas de nits. Por lo que parece claro que el problema viene de llevar el panel hasta tantos nits "forzadamente" (lo mismo le ocurre a la 803 ojo).
 

Archivos adjuntos

  • IMG_1362.jpg
    IMG_1362.jpg
    779.5 KB · Visitas: 94
Forzar las cosas es lo que tiene...en cualquier caso habría que ver en vivo contenidos y de forma diaria para valorar si el problema es tan así o despreciable (a veces la gente monta unos bacanales tremendos por cosas muy pequeñitas, ya se sabe...).

Yo veo ese "defecto" y a lo único que o atribuyo es a posterización y banding del codec (por muchos 10bits que se tenga...existen)
 
Efectivamente, es lo que siempre he dicho, que de nada sirve en paneles woled aumentar el brillo si el volumen de color no acompaña, de ahí que en realidad las oled oscilan sobre los 600 nits o algo menos. Más allá de eso parece que se hace a expensa del volumen de color, exactitud, etc.

Esto más bien parece una limitación de la propia tecnología. A ver si Samsung con su futura propuesta de televisores oled con quantum dot, son capaces de ofrecer algo que al menos vaya un poquito más allá.


Y sobre los tone Mapping creo que la industria ha sido clara al respecto. Lo correcto es no hacer ningún tipo de tone mapping, ya sea estático o dinámico, e ir siguiendo la PQ hasta el límite propio de la pantalla, y a partir de ese punto, recortar.
 
Si, en otros casos es posible que si, pero en esta escena no. No está en el material y comentan que no se veía así en ninguna de las otras 3 TV ni tampoco en el monitor de masterizado. Es un efecto secundario de forzar tanto el subpixel blanco.

Otro problema que comentan sus usuarios es el del sttuter. Se da especialmente cuando se usan apps de la TV (Netflix 4K por ejemplo) y parece que es porque el Soc está al límite y al llegar al 100% hay un salto (lo mismo le pasaba a la 803 también):

Personally, I don't think I'd lower the light output of the TV in order to remove this effect because I simply love how impactful it is due to the panel going so bright. But each to his own here.

Another downside is the judder... and this is something which does put me off at times when viewing something. It's really distracting for me.

Why, Panasonic... why haven't you fixed the motion issues that your TV's have for 3 generations now?
I had really high expectations of their new processor in regards to motion.

In my personal opinion, this is the only thing which doesn't live up to the brand's reputation, not to mention TV price.
 
Efectivamente, es lo que siempre he dicho, que de nada sirve en paneles woled aumentar el brillo si el volumen de color no acompaña, de ahí que en realidad las oled oscilan sobre los 600 nits o algo menos. Más allá de eso parece que se hace a expensa del volumen de color, exactitud, etc.

Esto más bien parece una limitación de la propia tecnología. A ver si Samsung con su futura propuesta de televisores oled con quantum dot, son capaces de ofrecer algo que al menos vaya un poquito más allá.


Y sobre los tone Mapping creo que la industria ha sido clara al respecto. Lo correcto es no hacer ningún tipo de tone mapping, ya sea estático o dinámico, e ir siguiendo la PQ hasta el límite propio de la pantalla, y a partir de ese punto, recortar.

Yo creo que depende a quien de la industria le preguntes. Unos te dirán que lo más correcto y puro es seguir la curva y cuando no llegue a más, recortar. Otros que hay que ver absolutamente todos los detalles de las altas luces, a costa del APL. Otros (los que más me gustan a mi) te dirán que hay que hacer tonemapping hasta cierto punto y luego ahí recortar para no afectar tanto al APL. Esto último es lo que hace Sony y LG (en 2019, antes era de los de ver hasta el último detalle) y a mi juicio muy acertadamente.

Sobre Samsung, lo último que he leído es que van a usar paneles donde todos los pixeles sean azules (en lugar de blancos) y en lugar de un filtro RGB, serían QD que generen solo el rojo y el verde (ya que el azul ya pasaría tal cual). Con eso que consiguen? Que el azul se deteriore igual de rápido que en un panel RGB, pues como todos son azules, el desgaste será igual en todo el panel. Lo malo? Que en los paneles RGB ese desgaste del azul era muy temprano, sobre las 15 000 horas (los paneles WRGB 2019 duran ya 150 mil. Lo bueno? Que al usar QD y que el panel sea todo subpíxeles azules, puede aumentar la cobertura del BT.2020 hasta el 90%. Una caña...la verdad es que promete mucho. Me intriga como van a alargar la vida del pixel azul, que es lo peor...

Por otra parte, cuando salgan tendremos paneles TADF WRGB por parte de LG, que van a ser una caña también (última prueba con éxito hace dos meses: 1300 nits al 10% en HDR, más cobertura de color al ser la emisión por encima y no por debajo y más resistentes a quemados todavía).

De hecho, voy a abrir un hilo y lo comentamos allí (e intentaré hacer un artículo chulo explicándolo).
 
Última edición:
A lo que me refiero es que sin saber el tema del "defecto" del televisor, alguien que vea la escena, sin ojo entrenado, no percibirá nada. Alguien que sepa un poco de la movida de compresiones, pensará que es la fuente (como he visto pasar en varios UHD, pues el codec no es mágico), y solo un porcentaje muy pequeño muy entrenado y muy informado dirá..."te pillé". En cualquier caso, en un plano que dura...¿segundos?, realmente es despreciable,

Que sí, que el defecto está ahí, pero creo que magnificarlo hace más mal que bien, y pienso que es más lógico ser realista. Yo me trago muchas mierdas de trabajos con una calidad muchísimo más alta, y "es lo que hay".

Luego claro, está el tema de como cada marca realiza el Tone Mapping sobre sus displays y el contenido. Ya he dicho que el tema del HDR es complicado, no hay verdades absolutas ni mentiras absolutas, todo queda en una sopa de juicios de valor muy complicados de evaluar y en última instancia prefiero valorar sobre el display en vivo antes que en cualquier foto o vídeo, aunque ésto sea complicado.
 
Si, pero según leo a Pruitt, no es algo de una escena. Si no que allí donde hay un elemento brillante, al sobresaturar el máximo "normal" que aguanta el pixel blanco, pum! banding. Donde no lo hay. Imagino que será sobre aquellos elementos que pasen de los 700-750 nits. Pero es que a la 803 le pasaba lo mismo...si, no es todo el tiempo, pero una vez lo ves ya acabas viéndolo por todos lados.

Vamos con el hilo de las QD-OLED que tienen muy buena pinta, aunque luego a saber qué diantres nos presentan (según varias fuentes, lo veremos en el CES de este año así que no queda tanto).
 
Yo es que prefiero no rallarme tanto, sabiendo que hay tantos "defectos" de todo tipo...prefiero disfrutar.
 
Y en este video, por cierto, Teoh comenta que el Dynamic Tone Mapping de la LG ha estado desactivado toda la prueba. Así que no ha ganado porque la gente que menos sabía la haya votado porque "parecía más brillante" al salirse de la curva. Ya ha comentado Teoh que seguía la curva escrupulsoamente.
 
Después de ver el vídeo de Teoh, yo creo que la clave está en que todas las teles se han calibrado profesionalmente, y por eso han chocado varios de los resultados. Ya se ha comentado algo en el hilo, para mi lo ideal es que se hubiera hecho otra comparativa paralela tal y como salen de fábrica (con los parámetros ideales según el fabricante, por ejemplo), porque sospecho que la gran mayoría de los usuarios, incluso de este foro, no vamos a calibrar con sonda.
El que lo haga, tiene en la C9 un claro ganador a un precio fantástico, y si es jugón ya ni te cuento. Y el que no lo haga, pues una todoterreno, en cualquier caso.
 
Yo pienso que aunque se haga la comparativa con un ajuste "de usuario normal" (que es el que haré el 99% de la gente), las diferencias seguirán siendo marginales. Salvo unidades que vengan claramente mal ajustadas.

No conozco a nadie, ni siquiera profesional, que te diga a ciencia cierta si lo que está viendo es 100% correcto sin tener referencia absouta alguna previa. Tiene que fiarse de que es así, porque la intención creativa puede cambiar y cambia colores, tonos, etc. Y como la inmensa mayoría de poseedores de televisores tan solo tendrán una en el salón, no tendrán nada más con qué comparar, con lo que lo que vean, "será correcto", salvo insisto, desviación tremenda. Sobre todo con los OLED actuales.
 
No hay más que ver los resultados en el video completo. Como dije antes de hacerse, las 3 están en un puño y es hasta posible que el mismo modelo pero con otro panel (hay paneles más y menos brillantes, más y menos uniformes, etc) cambie unas décimas para arriba o para abajo.

El gran ganador ha sido el OLED, eso está claro.
 
Yo pienso que aunque se haga la comparativa con un ajuste "de usuario normal" (que es el que haré el 99% de la gente), las diferencias seguirán siendo marginales. Salvo unidades que vengan claramente mal ajustadas.
Seguramente serían marginales, pero también seguramente variarían algo, el ejemplo más claro es la colorimetría de Panasonic, pues parece que en general hay consenso en que sale muy bien de fábrica.

No conozco a nadie, ni siquiera profesional, que te diga a ciencia cierta si lo que está viendo es 100% correcto sin tener referencia absouta alguna previa. Tiene que fiarse de que es así, porque la intención creativa puede cambiar y cambia colores, tonos, etc. Y como la inmensa mayoría de poseedores de televisores tan solo tendrán una en el salón, no tendrán nada más con qué comparar, con lo que lo que vean, "será correcto", salvo insisto, desviación tremenda. Sobre todo con los OLED actuales.
No entiendo bien en relación a qué haces esta reflexión, la comparativa sin calibrado podría hacerse igualmente tomando como referencia el monitor de Sony.
En cualquier caso, en cuanto al color, y al balance de blancos, en casa se puede comparar con móviles y pantallas de portátiles, pues algunos tienen un balance de blancos muy cercano a 6500K y un dE2000 muy bajo. Es bastante de andar por casa pero al menos te da una idea de si hay una desviación notable.
Saludos!
 
A ver, creo que se tiende a confundir lo que verdaderamente significa NITS al hablar de las nuevas especificaciones HDR. Esto no es SDR ni tiene nada que ver con las viejas especificaciones basadas en tecnologías arcaicas. En ese contexto, si hablásemos de nits, sí que hablaríamos de un incremento del brillo muy por encima de lo establecido por las viejas especificaciones, y el argumento de, “me resulta molesto para la vista”, cobraría sentido. Pero en HDR, no es así, y no lo es porque hay una especificación que garantiza que un panel de más brillo solo va a representar las imágenes HDR de manera más fiel a la intención original de sus creadores, y si una película UHD, es de hasta 10.0000 nits, que las hay, no significa que vaya a ser más brillante, solo significa que para verla 1:1 píxel a píxel nit : nit, vamos a necesitar un display que cubra la totalidad de la especificación PQ sin que por ello nadie se vaya a quedar ciego, ya que los coloristas a la hora de crear el contenido ya tienen en mente que los índices de luminancia codificados nunca lleguen a molestar a los usuarios mientras ven el contenido en su casa.

Hasta que no se entienda que nit, aunque sea una medida de luminancia, tiene un significado diferente según el contexto en el que se sitúe (SDR o HDR) la gente seguirá tirando del tópico de: “para qué tantos nits que me van a dejar ciego!”, cuando esta especificación precisamente ha sido diseñada para ver películas en un entorno de luz controlada mediante una especificación que puede ir hasta los 10000 nits. Y si puede ir hasta 10000 nits es porque van a hacer uso de ella.

En resumen: Ver un DVD o Bluray en una TV mal ajustada (entiéndase por mal ajustada con valores de luz oled, luz de fondo o contraste por encima de lo recomendable) nos resultará más molesto visualmente hablando que una película masterizada a 10.000 nits en un display de esa misma capacidad, porque la primera sí que va a mantener un elevado brillo a lo largo de toda la visualización que nos podría resultar molesto ocasionándonos la pertinente fatiga visual, y la segunda hará un uso del rango dinámico completo en la medida que la intención artística/creativa de la película y el colorista lo determinen, agregando puntos de luz aquí o allá en función de la intención. O sea, que disponer de un display de 10000 nits no es nocivo para la vista más de lo que los sería un 1000 nits o una pantalla SDR mal ajustada. Sin embargo, sí que nos serviría para ver la película tal y como fue creada sin tone Mapping que atenten contra la fidelidad de la imagen creada.

Dicho esto, creo que las Oled por su capacidad autoemisva para generar negros puros son las teles que, en general, mejor se ven, pero si yo tuviera que escoger una TV 2019, independientemente de lo que diga el Shootout, escogería para mí una Panasonic.
Ese es el tema de siempre, "PARA QUE TANTOS NITS","TE QUEDARAS CIEGO"

me pregunto que dicen las especificaciones?
Si un display puede llegar a los 1000 a 1400 nits y la pela esta masterizada en 1000,para mi es lo ideal que se pueda ver todo sin ninguna restricción.
Y mas de entender lo que es HDR que no es nada difícil es simplemente disfrutarlo a su máxima plenitud, por ahora en un display capaz de mostrar o digerir ese masterizado de 1000 nits.

Siempre digo una OLED de 1000 nits en modo cine o 1100 nits seria impresionante por el gran contraste y su negro total y adiós a las FALDS ,pero lamentablemente por ahora es imposible, si no pudo PANASONIC menos LG eso lo tengo claro.

Por esa razón digo tal vez con la C9 de 77" tenga ese efecto mas que todo por el tamaño.
Veamos que hace SAMSUNG/LG para mejorar todo esto si no las oleds serán los plasmas del pasado.
salu2.
 
Ese es el tema de siempre, "PARA QUE TANTOS NITS","TE QUEDARAS CIEGO"

me pregunto que dicen las especificaciones?
Si un display puede llegar a los 1000 a 1400 nits y la pela esta masterizada en 1000,para mi es lo ideal que se pueda ver todo sin ninguna restricción.
Y mas de entender lo que es HDR que no es nada difícil es simplemente disfrutarlo a su máxima plenitud, por ahora en un display capaz de mostrar o digerir ese masterizado de 1000 nits.

Siempre digo una OLED de 1000 nits en modo cine o 1100 nits seria impresionante por el gran contraste y su negro total y adiós a las FALDS ,pero lamentablemente por ahora es imposible, si no pudo PANASONIC menos LG eso lo tengo claro.

Por esa razón digo tal vez con la C9 de 77" tenga ese efecto mas que todo por el tamaño.
Veamos que hace SAMSUNG/LG para mejorar todo esto si no las oleds serán los plasmas del pasado.
salu2.


Bueno, pues centrémonos en la especificación pura y dura. Esta no dice nada de tone mapping ni de cómo hacerlo, simplemente te dice que es una curva de valores absolutos, no relativos, a los que a cada valor digital de vídeo le ha sido asignado un valor absoluto de luminancia fija no variable, por lo que la única forma correcta de proceder sería la de ir siguiendo escrupulosamente la curva hasta el valor máximo de la pantalla. Y esto no lo digo yo, lo dice la especificación.

El problema, es que a nadie le gusta ver clipping, por lo que cada fabricante ofrece una solución de mapeo de tonos para adaptar el contenido a las capacidades de sus pantallas. Y aqui de nuevo volvemos a lo mismo, como la especificación no dice nada cada fabricante aplica una solución en función de sus estudios, pensamientos o ideas, y que puede ser un tone mapping estático, dinámico o ambos.

Si se dispone de una pantalla muy brillante con un mapping estático puedes ir bien pues los inconvenientes serán mínimos, pero con una pantalla de poco brillo como las OLED el estático puede ser algo más problemático por lo que un tone mapping dinámico se haría más efectivo, ya que un estático al ser aplicado a toda la película (si es de valores altos) oscurecería la imagen en un intento por preservar toda la información, y esto se evitaría con el dinámico, pero entonces surge otro problema, la latencia, que incluso se puede apreciar al inicio de Mortal Engines cuando tiran la sal, que la imagen en las nubes se vuelve algo más inconsistente.

En fin, que yo lo que prefiero es que no exista ningún tipo de tone mapping, ni estático ni dinámico (a no ser que venga incrustado en la propia señal de vídeo en forma de DV o HDR10+, ya que ahí no existe latencia y el frame a frame se reproduce siempre correctamente independientemente del tipo de pantalla) tal y como indica la especificación, y que las pantallas vayan hasta su limite máximo desechando todo lo que les caiga por encima.

Pero esta es sola mi forma de ver este asunto ya que soy bastante riguroso cuando se trata de las especificaciones.
 
Última edición:
Seguramente serían marginales, pero también seguramente variarían algo, el ejemplo más claro es la colorimetría de Panasonic, pues parece que en general hay consenso en que sale muy bien de fábrica.

Siempre hay ligerísimas variaciones, claro. Pero por regla general, sea Panasonica, LG, Sony o la que sea, el ajuste de fábrica está dentro de lo tolerable y no es ni necesario el ajuste con sonda. Es algo que han recalcado muchísimas personas que han usado sonda para ajustar OLEDs. Solo en casos muy específicos ha sido necesario un ajuste más grande, pero porque el panel venía "tocado" y era evidente hasta sin ajustar con sonda.


No entiendo bien en relación a qué haces esta reflexión, la comparativa sin calibrado podría hacerse igualmente tomando como referencia el monitor de Sony.
En cualquier caso, en cuanto al color, y al balance de blancos, en casa se puede comparar con móviles y pantallas de portátiles, pues algunos tienen un balance de blancos muy cercano a 6500K y un dE2000 muy bajo. Es bastante de andar por casa pero al menos te da una idea de si hay una desviación notable.
Saludos!

Es que te estoy hablando SIN REFERENCIA ALGUNA, que es lo que sucede en el 99.99% de los hogares. Tú llegas, instalas el televisor y siguiendo las mínimas instrucciones de ajuste, dejas la imagen "perfecta". ¿Puede tener alguna mínima desviación?. Por supuesto. ¿Cual y cuanto?. Sin tener un monitor de referencia calibrado al lado o una sonda que te lo chive, no lo vas a saber. Es decir, a ojos de cualquier personas, la imagen que veas será "correcta", salvo insisto, desviaciones grandes. Que incluso con determinados patrones, puedes ajustar "a ojo".

Si comparas la imagen de una OLED frente a la de un móvil o una pantalla de portatil, cometerás un error. Tú no sabes a ciencia cierta cual es el grado de fiabilidad de ese móvil, no puedes guiarte por ellos. Incluso ajustando a norma las dos pantallas, te encontrarás diferencias, porque la propia tecnología de cada uno de ellos tiene sus limitaciones. Ambas dos por separado serán correctas, pero juntas "chocarán".

Yo mismo tengo proyector y tele, y ambos dos ajustados a norma, dan looks diferentes. Es normal.
 
Atrás
Arriba