Sony OLED 2021: A90J y A80J

Djinn

Miembro UHD SDR
Registrado
30 Julio 2019
Panasonic solo va a dejar habilitado el HDMI 2.1 4K/120hz con el problema de que solo la mitad vertical de la resolución con el VRR y después lo resolverán con el update (algo que Sony prometió desde la X900H el año pasado y toda la línea J de este año pero por lo menos Pana ya metió el VRR).

Quizás por el costo no integró un disipador LG...

Pues es como el problema con los AVR HDMI 2.1 con el chip que introdujeron y dieron problemas, y no toda la gente anda contenta con la solución que ha ofrecido Marantz/Denon, tener otro cacharro aparte para que haga el trabajo. Y no tener las especificaciones finales de PS5,Series X y de Nvidia y AMD para que hicieran los fabricantes pruebas, todos se fueron con lo que decía la norma y mandaron a fabricar componentes a diestra y siniestra y estar listos a la salida del mercado. Y como dices la A90J será la mejor, pero en Gaming las LG son la opción.
Hola, veo que estás enterado del futuro de las Panasonic. En la nota de prensa traducida del japonés por un compañero nuestro, se dice que las JZ2000/JZ1500 tendrán 2 puertos HDMI 2.1 a 40Gpbs, no a 48Gbps. ¿Puedes confirmarnos esto? Sería una gran metedura de pata por parte de Panasonic no ofrecer puertos completos, cuando las nuevas Sony incluyen puertos a 48Gbps. Este fue el camino que escogió LG para su CX (y que fue motivo de muchas críticas).

Gracias.
 

carlosBB

Miembro 1080i
Registrado
8 Marzo 2021
Ojo que la 83 no lleva panel Evo, creo (?). Y la unidad de Javier es un pepinaco lumínico 😂

Review de una 83':


As an OLED TV, the A90J can’t get as bright as modern high-end LED-backlit LCD TVs. However, Sony is pushing the technology’s brightness as far as it can with new panel engineering and its OLED XR Contrast Pro image processing. With an HDR10 signal, the A90J shows a peak brightness of 180.833cd/m^2 with a full-screen field of white. This is unimpressive, though normal for an OLED panel completely lit up. OLEDs get significantly brighter the less area that needs to be fully illuminated, and with an 18% field of white, the TV’s peak brightness jumps to 632.348cd/m^2. With a 10% field, it shoots up even higher to 775.534cd/m^2.

Review de una 65' buena review, pero más comedida en cuanto a brillo:


While the A90J is technically brighter than Sony’s last round of OLEDs, it's usually only about 50 to 100 nits brighter on average, specular highlights aside. It’s certainly an achievement, just not as big of a leap as I was envisioning.

Todo el mundo dice que brilla más que la generación anterior. La disputa es CUANTO más brillo, que es lo que a mi me tiene un poco perdido después de una docena de reviews con mediciones y comentarios contradictorios. Por supuesto no es todo el brillo, lo que se paga también es el magnífico escalado y movimiento del XR1. Pero según cuánta diferencia de brillo, te puede merecer la pena la A90J o la A80J. Yo por 100 nits no me molesto. Ahora si son 250-300 ya hablamos de otra cosa.

Os recomiendo ver el video que he puesto antes (2021 All-Star OLED TV Review: A90J vs G1 vs A80J vs C1), a ver las conclusiones de los americanos, especialmente de Robert Zohn, que es el creador del Flat Panel HDTV Shootout Evaluation Event y un tío respetado en la industria en EEUU. Por sus manos pasan y han pasado muchísimas TVs, creo que será interesante escucharle.

Si es una compra para bastantes años, especialmente en tamaños más grandes con la inversión que conlleva, yo me planteaba seriamente medirla por sonda para comprobar la unidad que te llegue.


"If you use the settings that get the picture to the highest accuracy is not that much brighter than the LG C1."

O sea que las diferencias de medición de brillo puede ser fruto de la calibración previa.
Por lo demás, excepto en gaming, obviamente que la Sony es superior.

yo me he visto la comparativa de Leoni Ruiz de la A80 vs A90 y vs C1 y aunque ya lo habíamos visto con Javier se ve clara la diferencia de brillo entre unas y otras. Las sony más proximas la C1 mas lejos.

La diferencia a favor de la A90j es clara.

PERO lo que para mi se ve como mayor diferencia incluso entre A90 y A80 es el nivel de nitidez-realismo-detalle

Por ejemplo como comentó javier en los girasoles el de la A90 se ve mas real en todo y en juego de tronos en una escena de las puestas por Leoni que sale un tipo con una capa de pelo de animal se ve claramente como que la A90 tiene un nivel de realismo detalle tremendo
 

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
Estoy viendo que para hacer el truco de los nits hay que tener desbloqueados los modos custom for pro 1 y 2? En los modos convencionales de imagen recomendados en el vídeo de settings no sale el menú de control de temperatura avanzado 20pt?

En caso de necesitar tenerlos desbloqueados aquí dice cómo (sacado del hilo de AVSForums) pero claro esto ya se aplica a todos los modos restantes? Es decir tu varias en el menú del 20p y lo pones al máximo y eso ya se ve así en los otros modos que hemos ajustado (estándar para tdt, dolby vision brillo para dolby vision etc.) no?

Ver el archivos adjunto 7111
Justo estoy haciendo el vídeo ;)

Si, el balance de blancos es común a todos los modos de imagen -incluso entre SDR y HDR- con lo que al modificarlo, también se aplica a lo demás. No afecta negativamente así que no hay de que preocuparse.
 
Última edición:

pevagro

Miembro UHD Dolby Vision
Registrado
2 Diciembre 2019
Justo estoy haciendo el vídeo ;)

Si, el balance de blancos es común a todos los modos de imagen -incluso entre SDR y HDR- con lo que al modificarlo, también se aplica a lo demás. No afecta negativamente así que no hay de que preocuparse.
Jajaja perfecto entonces me espero al vídeo antes de meterme a manifacero 😜 gracias Javier!
 

Rokugan

Miembro 1080p
Registrado
10 Septiembre 2019
yo me he visto la comparativa de Leoni Ruiz de la A80 vs A90 y vs C1 y aunque ya lo habíamos visto con Javier se ve clara la diferencia de brillo entre unas y otras. Las sony más proximas la C1 mas lejos.

La diferencia a favor de la A90j es clara.

PERO lo que para mi se ve como mayor diferencia incluso entre A90 y A80 es el nivel de nitidez-realismo-detalle

Por ejemplo como comentó javier en los girasoles el de la A90 se ve mas real en todo y en juego de tronos en una escena de las puestas por Leoni que sale un tipo con una capa de pelo de animal se ve claramente como que la A90 tiene un nivel de realismo detalle tremendo

Captura de pantalla 2021-05-03 202459.png


100 nits de diferencia entre la A90J y la E9, ambas de 55' calibradas y medidas por Vincent Teoh.

He hablado con Leoni y me comenta lo mismo, hay diferencia de brillo pero no son 300 nits. La de Javier tiene dentro a toda la familia Gusiluz 😂 Además, si midió una variación de 200 nits entre dos unidades de la GZ2000, lo mismo podrá pasar con este modelo.

No obstante, empiezo a tener claro que la Sony se puede poner en un modo poco correcto desde un punto de vista de calibración, digamos un "semivívido", y sacarle mucho más brillo si es así como te gusta.

Como bien dices, la mayor diferencia está en el escalado y el movimiento del chip XR1, para mi es el auténtico valor añadido de Sony este año. El brillo es la guinda del pastel.

En fin, yo estoy hasta las narices del tema del HDMI 2.1 y el SOC Mediatek, no me gusta nada lo que estoy leyendo. Como decía un calibrador americano hace un par de semanas, si las marcas lanzan sus productos sin finalizar, que metan un descuento del 25%. Y cuando lancen el firmware y todo funcione correctamente según lo prometido, que cobren el importe restante.
En los mundos de Yupi, claro.

En fin, en agosto cuando salga la JZ1500 comparo y a ver como va el firmware del Sony por entonces.

Saludos
 

Djinn

Miembro UHD SDR
Registrado
30 Julio 2019
PERO lo que para mi se ve como mayor diferencia incluso entre A90 y A80 es el nivel de nitidez-realismo-detalle

Por ejemplo como comentó javier en los girasoles el de la A90 se ve mas real en todo y en juego de tronos en una escena de las puestas por Leoni que sale un tipo con una capa de pelo de animal se ve claramente como que la A90 tiene un nivel de realismo detalle tremendo
Creo que tu vista te puede estar engañando, o bien YouTube lo está haciendo (date cuenta de que ves las teles de una grabación de una cámara que luego ha sido comprimida para subirla, en realidad habría que verlas en persona para juzgar).

Lo que puede estar pasando es que la A90J es de 65", porque Leoni se la ha comprado para él (está pensándose quedársela o no), y que la A80J es una unidad de muestra de Sony en 55". Ya sabes que la de 10" mayor se ve con algo más de brillo y eso puede estar causándote la sensación de mayor viveza y realismo. Eso es comparar manzanas con peras, lo justo es hacerlo con otras manzanas (ambas de 55" o de 65"). Las dos deben verse con el mismo detalle y realismo y estoy seguro de que así es. Lo que varía es el brillo máximo; los "fogonazos" de luz van a ser más impactantes en la A90J que en la 80, pero la electrónica es prácticamente idéntica. Solo hay una pequeña diferencia entre las dos Sony que comento más atrás sobre el balance de blancos automático y que ya @Tocinillo ha incluido en el primer post del hilo (Gracias Javier).
 

Djinn

Miembro UHD SDR
Registrado
30 Julio 2019
En fin, yo estoy hasta las narices del tema del HDMI 2.1 y el SOC Mediatek, no me gusta nada lo que estoy leyendo. Como decía un calibrador americano hace un par de semanas, si las marcas lanzan sus productos sin finalizar, que metan un descuento del 25%.
Irónicamente, ya lo hicieron, aunque de forma progresiva y probablemente forzada. Si el precio de salida de, por ejemplo, la 55A90J fue de 2999€, luego se vendió por 2599€ y finalmente acabó en 2209€: (1 - 2209 / 2999) * 100 = 26% de descuento :D

Bromas aparte, solo LG lo ha hecho bien en este apartado, porque ellos estudiaron desde el principio la inclusión del estándar 2.1 completo (llevan varias generaciones ofreciéndolo). Tanto Panasonic como Sony se han visto obligadas a incluirlos por petición de la clientela (especialmente de los jugones con consolas de última generación), y como ellos ya tienen diseñada la programación del chip Mediatek no han querido cambiarlo por otro mejor para esta versión. O aceptamos esto u otro año más con solo HDMI 2.0. O bien uno puede tirar por la LG y perder todas las ventajas de brillo, escalado, profundidad, movimiento, actualizaciones del sistema operativo... pero a cambio tendrá una experiencia de juego única. Como yo no juego, a mí no me importa quedarme sin VRR, pero creo que es positivo que al menos hayan dejado esa posibilidad para más adelante que no tenerla. Cada uno debe decidir en función de sus necesidades: si ve más cine que juegos o viceversa, si no va a hacer uso del 4K/120 porque su consola no lo soporte, si se la va a quedar 2 años o 10... etc. Para eso está el mercado, para elegir lo que a uno más le conviene. Desgraciadamente, no hay nada perfecto en este mundo.
 

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
Ver el archivos adjunto 7141

100 nits de diferencia entre la A90J y la E9, ambas de 55' calibradas y medidas por Vincent Teoh.

He hablado con Leoni y me comenta lo mismo, hay diferencia de brillo pero no son 300 nits. La de Javier tiene dentro a toda la familia Gusiluz 😂 Además, si midió una variación de 200 nits entre dos unidades de la GZ2000, lo mismo podrá pasar con este modelo.

No obstante, empiezo a tener claro que la Sony se puede poner en un modo poco correcto desde un punto de vista de calibración, digamos un "semivívido", y sacarle mucho más brillo si es así como te gusta.

Como bien dices, la mayor diferencia está en el escalado y el movimiento del chip XR1, para mi es el auténtico valor añadido de Sony este año. El brillo es la guinda del pastel.

En fin, yo estoy hasta las narices del tema del HDMI 2.1 y el SOC Mediatek, no me gusta nada lo que estoy leyendo. Como decía un calibrador americano hace un par de semanas, si las marcas lanzan sus productos sin finalizar, que metan un descuento del 25%. Y cuando lancen el firmware y todo funcione correctamente según lo prometido, que cobren el importe restante.
En los mundos de Yupi, claro.

En fin, en agosto cuando salga la JZ1500 comparo y a ver como va el firmware del Sony por entonces.

Saludos

Si, pero piensa que en mi caso es en un modo completamente correcto. Es más, está calibrada profesionalmente y el AE está por debajo de 3 en balance y CMS.

Y no es solo lo mía, si no la de la mayoría de gente. La de D-Nice (65") mide ya 880 nits también sin el truco. Con él, rondará como la mía -950/1000- completamente calibrada.

300 nits en una escala logarítmica como la del HDR es "poco", para ver el doble de brillo que una TV de 1000 nits deberías tener al lado una que nos de 5000 nits. Haz una regla de tres con 610 (A80J de 55") y 850 (media de las A90J de 65"). ¿Qué % perceptual de brillo hay entre una y otra? Se nota más el ABL más relajado que esos 300 nits que es lo que llevo diciendo los últimos 4 años. La "diferencia" que vemos entre una QLED de gama alta y una OLED no es tanto por el brillo en L10 (1700 vs 900) si no por el ABL (hasta ahora eran 800 vs 130...).

Al margen de todo eso, mucha gente interpreta que más nits = quedarte ciego y tampoco es así. Ese brillo se usa para ver más detalle en altas luces...

Resumen de lo que estoy viendo por la red:

- A80J en 55" --> Unos 600 nits.
- A90J en 55" --> Unos 780-800 nits.
- A90J en 65" --> Unos 840-880 nits.
- C1 en 55" --> Unos 700 nits.
- C1 en 65" --> Unos 750 nits.
- G1 en 65" --> Unos 800-820 nits.

Un saludo!
 

Nekhrun

Miembro 1080p
Registrado
6 Mayo 2020
Hola, veo que estás enterado del futuro de las Panasonic. En la nota de prensa traducida del japonés por un compañero nuestro, se dice que las JZ2000/JZ1500 tendrán 2 puertos HDMI 2.1 a 40Gpbs, no a 48Gbps. ¿Puedes confirmarnos esto? Sería una gran metedura de pata por parte de Panasonic no ofrecer puertos completos, cuando las nuevas Sony incluyen puertos a 48Gbps. Este fue el camino que escogió LG para su CX (y que fue motivo de muchas críticas).

Gracias.

Lo desconozco amigo, como tengo una X900H y leo los foros en inglés de Sony y los de otras marcas que tengan relación con algo como el anuncio de prensa de Panasonic y el problema también de su HDMI 2.1 es como se está destapando todo esto.

En la A90J ya dijo ayer Teoh que va a 40 Gbps, quizás y si vaya la Pana a esa velocidad o no, habrá que esperar hasta que las analicen.
 

Rokugan

Miembro 1080p
Registrado
10 Septiembre 2019
Resumen de lo que estoy viendo por la red:

- A80J en 55" --> Unos 600 nits.
- A90J en 55" --> Unos 780-800 nits.
- A90J en 65" --> Unos 840-880 nits.
- C1 en 55" --> Unos 700 nits.
- C1 en 65" --> Unos 750 nits.
- G1 en 65" --> Unos 800-820 nits.

Un saludo!

Totalmente de acuerdo con este resúmen de cifras medias que dejas, cuadra completamente comparando mismos tamaños.

Por cierto, gracias y enhorabuena por perseguir el truco de extra de brillo en la AJ90, acabo de ver tu video y me ha dejado loco 😁
Me parece una pasada lo de los 1.000 nits, me lo he guardado en favoritos para el futuro. Además tengo la misma sonda que tú enseñas en el video. A ver con lo que nos sale esta semana D-Nice.

Pongo velas para que entre Panasonic y Sony encuentren pronto la solución para resolver los flecos pendientes en gaming de sus puertos HDMI 🙏
 

Djinn

Miembro UHD SDR
Registrado
30 Julio 2019
En la A90J ya dijo ayer Teoh que va a 40 Gbps, quizás y si vaya la Pana a esa velocidad o no, habrá que esperar hasta que las analicen.
Pues me dejas de piedra, compañero, porque yo pensaba que sí llevaba un puerto completo a 48 como la LG C9 (tanto las C1 como G1 parece que también estarán capadas). Parece ser que los fabricantes se están apuntando al carro de recortar los puertos para bajar precios (como hizo también LG con la CX). Casi seguro que las Panasonic van a seguir ese camino por la nota de prensa publicada y, por lo tanto, no parece un error tipográfico de la nota.

Y yo me pregunto: ¿En qué se traduce el recorte de los puertos 2.1? Quiero decir, ¿qué es lo que no se va a poder hacer que sí se podría hacer con un HDMI 2.1 completo a 48Gbps?

Gracias
 
Última edición:

Nekhrun

Miembro 1080p
Registrado
6 Mayo 2020
Pues me dejas de piedra, compañero, porque yo pensaba que sí llevaba un puerto completo a 48 como la LG C9 (tanto las C1 como G1 parece que también estarán capadas). Parece ser que los fabricantes se están apuntando al carro de recortar los puertos para bajar precios (como hizo también LG con la CX). Casi seguro que las Panasonic van a seguir ese camino por la nota de prensa publicada y, por lo tanto, no parece un error tipográfico de la nota.

Y yo me pregunto: ¿En qué se traduce el recorte de los puertos 2.1? Quiero decir, ¿qué es lo que no se va a poder hacer que sí se podría hacer con un HDMI 2.1 completo a 48Gbps?

Gracias

La única diferencia es que usas 10 bit rgb 4:4:4: al ir en 40 Gbps, y 12 bit rgb 4:4:4 es para 48 Gbps ambos en 120Hz. Todo el ancho de banda del HDMI 2.1.

La Series X va a 40 Gbps, PS5 a 32Gbps, las series 3000 o 6000 de nvidia o amd respectivamente no sé si van a 12 bit pero a 10 bit es un hecho.

Y quizás lo caparon por el hecho de que los paneles son de 10 bit, y la gradación de color a 12 bit se reduce ya que no fue fabricado con esas características nativas. Las LG de 2019 son una excepción por ser tan verde el puerto.
 

Rokugan

Miembro 1080p
Registrado
10 Septiembre 2019
La única diferencia es que usas 10 bit rgb 4:4:4: al ir en 40 Gbps, y 12 bit rgb 4:4:4 es para 48 Gbps ambos en 120Hz. Todo el ancho de banda del HDMI 2.1.

La Series X va a 40 Gbps, PS5 a 32Gbps, las series 3000 o 6000 de nvidia o amd respectivamente no sé si van a 12 bit pero a 10 bit es un hecho.

Y quizás lo caparon por el hecho de que los paneles son de 10 bit, y la gradación de color a 12 bit se reduce ya que no fue fabricado con esas características nativas. Las LG de 2019 son una excepción por ser tan verde el puerto.

Hoy por hoy, sólo un PC saca 48 Gbps (4k 120hz 12 bits), pero como bien dices el panel de LG es 4K 10 bits nativo, por mucho que le puedas alimentar 12 bits.

Una pequeña ventaja que esgrimía Vincent Teoh en su día es que siempre es mejor tener cierto "margen" al usar una "tubería" de datos, y que sobre ancho de banda. Pero vaya, más que los 40 vs 48 Gbps lo que realmente importa es cómo soportan los puertos el resto de características del 2.1 (ALLM, VRR/ G-Sync/ Free Sync Premium, HDR @ 120 Hz, latencia, etc.) que es dónde LG le saca una cabeza al resto de marcas. Sólo es relevante en gaming.

Anchos de banda necesarios para cada resolución:


q44it1HMK-JJAQltUvA4r45UlRAO2uHcXgO3WKZvC9E.jpg
 

carlosBB

Miembro 1080i
Registrado
8 Marzo 2021
Creo que tu vista te puede estar engañando, o bien YouTube lo está haciendo (date cuenta de que ves las teles de una grabación de una cámara que luego ha sido comprimida para subirla, en realidad habría que verlas en persona para juzgar).

Lo que puede estar pasando es que la A90J es de 65", porque Leoni se la ha comprado para él (está pensándose quedársela o no), y que la A80J es una unidad de muestra de Sony en 55". Ya sabes que la de 10" mayor se ve con algo más de brillo y eso puede estar causándote la sensación de mayor viveza y realismo. Eso es comparar manzanas con peras, lo justo es hacerlo con otras manzanas (ambas de 55" o de 65"). Las dos deben verse con el mismo detalle y realismo y estoy seguro de que así es. Lo que varía es el brillo máximo; los "fogonazos" de luz van a ser más impactantes en la A90J que en la 80, pero la electrónica es prácticamente idéntica. Solo hay una pequeña diferencia entre las dos Sony que comento más atrás sobre el balance de blancos automático y que ya @Tocinillo ha incluido en el primer post del hilo (Gracias Javier).

Discrepo en el tema del brillo y la nitidez A90 vs A80

Se ve claramente en los videos sin perjuicio de que además lo digan los que los comentan que la 90 tiene algo más de punch que la 80. ¿Que los 300 o 200 nits más no son un 30% ni un 20% más de brillo? Eso ya lo sabemos pero la 90 se ve con otro punch. Aunque comparemos dos de 65 se va a ver la 90 con otro punch. Por el abl por el disipador por lo que sea.

Tb se ve que ese efecto 3D o realismo es algo superior.

Cuando Javier Tocinillo hacía la comparativa A90vsA80 y salía el ciervo se veía diferente el hocico (tenía como textura en la 90 y era más plano en la 80) y cuando salió la noria en las Vegas antes de que Javier dijera que tenía otro efecto en la A90 yo ya me había dado cuenta, y en las pipas y pétalos de los girasoles idem.

Dicho esto te llevas la A80 para casa y a los tres días te has olvidado del brillo y del detalle pero los que queremos un tv Premium queremos la 90, y eso que en SD y dolby se ven iguales (incluso en dolby casi idem con la C9 ojo!! Según se ha dicho en la review) y el escalado y el movimiento son idénticos A90 y A80 pero la 90 tiene eso: más brillo y más nitidez efecto 3D.

Eso es indiscutible a mi juicio
 

Rokugan

Miembro 1080p
Registrado
10 Septiembre 2019
Me acabo de ver el video completo de Robert Zohn y John Reformato (uno de los mejores calibradores del EEUU) y me quedan ya muy pocas dudas sobre las bondades de la A90J para cine. El heatsink en las OLED es un claro valor añadido para los entusiastas ya que aporta estabilidad a la imagen, lo que se traduce en highlights no sólo más brillantes sino más sostenidos, y la posibilidad de calibrar la TV de forma más precisa. También aporta longevidad y menos retenciones, como ya sabíamos. LG pensó que la mayor eficiencia del panel EVO sería suficiente para empujar un poco más sus límites en la G1, pero la realidad es que se ha quedado un paso por detrás como tope de gama. Por cierto, confirman que todos los paneles en EEUU tanto de LG como de Sony llevan panel EVO, incluídas las C1.

Es muy interesante escucharles, siempre se aprende algo de los comentarios de estos grandes veteranos. Sueltan algunas perlitas sobre calibración y mediciones, diferencias de filosofía entre marcas sobre el detalle en sombra y primeros niveles de negro, etc.
Han tenido ya 50 unidades de la Sony. En breve sacan comparación de la A80J lado a lado con la C1, que es su rival previsto. La A90J la compararán con la G1, pero está claro que no es rival para la Sony, tanto por escalado como por la ausencia de heatsink.

Conclusión, se repite la disyuntiva del año pasado: cine (A90J) vs. gaming (LG). No tengo grandes esperanzas para este año de un tele que lo tenga todo. Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.

My understanding is that Sony is buying SoCs from Mediatek, and Mediatek hasn't gotten it working. So this would affect any manufacturer that is using the Mediatek SoCs, which I think includes the new Panasonic models as well...? LG and Samsung use their own chips. Philips also uses Mediatek.

Sony's divisions are infamous for not talking to each other or knowing what each other is doing, so extremely doubtful there is a coordinated company-wide VRR push. Also, you have to remember for the TVs, VRR is just as much Mediatek's issue as Sony's. Sony bought Mediateks SOCs with the promise the SOCs could be updated to support VRR. If Mediateks engineers can't figure out how to get their SOCs to use VRR properly, it's unlikely Sony's engineers alone could do anything.


Mismo fiasco que con el chip HDMI 2.1 de Denon/Marantz.

Esto se va a arreglar seguro, lo que no se sabe es en qué año: o bien porque LG saque un modelo con disipador, o bien porque Pana y Sony cambien el SOC a otro modelo en el que funcione todo. Y la incógnita serán los posibles OLED de Samsung. En mi caso dejo el upgrade en stand-by.

Disfrutad del cine! 🙂👍
 

carlosBB

Miembro 1080i
Registrado
8 Marzo 2021
Me acabo de ver el video completo de Robert Zohn y John Reformato (uno de los mejores calibradores del EEUU) y me quedan ya muy pocas dudas sobre las bondades de la A90J para cine. El heatsink en las OLED es un claro valor añadido para los entusiastas ya que aporta estabilidad a la imagen, lo que se traduce en highlights no sólo más brillantes sino más sostenidos, y la posibilidad de calibrar la TV de forma más precisa. También aporta longevidad y menos retenciones, como ya sabíamos. LG pensó que la mayor eficiencia del panel EVO sería suficiente para empujar un poco más sus límites en la G1, pero la realidad es que se ha quedado un paso por detrás como tope de gama. Por cierto, confirman que todos los paneles en EEUU tanto de LG como de Sony llevan panel EVO, incluídas las C1.

Es muy interesante escucharles, siempre se aprende algo de los comentarios de estos grandes veteranos. Sueltan algunas perlitas sobre calibración y mediciones, diferencias de filosofía entre marcas sobre el detalle en sombra y primeros niveles de negro, etc.
Han tenido ya 50 unidades de la Sony. En breve sacan comparación de la A80J lado a lado con la C1, que es su rival previsto. La A90J la compararán con la G1, pero está claro que no es rival para la Sony, tanto por escalado como por la ausencia de heatsink.

Conclusión, se repite la disyuntiva del año pasado: cine (A90J) vs. gaming (LG). No tengo grandes esperanzas para este año de un tele que lo tenga todo. Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.

My understanding is that Sony is buying SoCs from Mediatek, and Mediatek hasn't gotten it working. So this would affect any manufacturer that is using the Mediatek SoCs, which I think includes the new Panasonic models as well...? LG and Samsung use their own chips. Philips also uses Mediatek.

Sony's divisions are infamous for not talking to each other or knowing what each other is doing, so extremely doubtful there is a coordinated company-wide VRR push. Also, you have to remember for the TVs, VRR is just as much Mediatek's issue as Sony's. Sony bought Mediateks SOCs with the promise the SOCs could be updated to support VRR. If Mediateks engineers can't figure out how to get their SOCs to use VRR properly, it's unlikely Sony's engineers alone could do anything.


Mismo fiasco que con el chip HDMI 2.1 de Denon/Marantz.

Esto se va a arreglar seguro, lo que no se sabe es en qué año: o bien porque LG saque un modelo con disipador, o bien porque Pana y Sony cambien el SOC a otro modelo en el que funcione todo. Y la incógnita serán los posibles OLED de Samsung. En mi caso dejo el upgrade en stand-by.

Disfrutad del cine! 🙂👍

Genial lo qeu has puesto gracias por verlo por otros e informarnos.

Yo estaba por la A80 de 77 porque la 90 de 83 es ya un monstruo pero ya tengo decidido hace días que disipador si o si por lo que o me espero a 2022 a una de 77 si la sacan la A90 o la actua A90 de 83 pero la A80 ni de broma.

Mi razonamiento era sencillo: los mejores ingenieros estaban-están en Panasonic y estos llevan ya con el disipador un tiempo. Si ellos lo ponen es por algo (ese algo lo has puesto tu muy claro que es).

Por otra parte me he perdido un poco en lo del SocS y mediatek supongo qeu tengo que releer mensajes previos si bien si tiene que ver solo con los juegos no me importa porque yo no juego. ¿afecta el tema ese solo a juegos? Gracias
 

Tocinillo

Administrador
Staff
Registrado
18 Agosto 2018
Me acabo de ver el video completo de Robert Zohn y John Reformato (uno de los mejores calibradores del EEUU) y me quedan ya muy pocas dudas sobre las bondades de la A90J para cine. El heatsink en las OLED es un claro valor añadido para los entusiastas ya que aporta estabilidad a la imagen, lo que se traduce en highlights no sólo más brillantes sino más sostenidos, y la posibilidad de calibrar la TV de forma más precisa. También aporta longevidad y menos retenciones, como ya sabíamos. LG pensó que la mayor eficiencia del panel EVO sería suficiente para empujar un poco más sus límites en la G1, pero la realidad es que se ha quedado un paso por detrás como tope de gama. Por cierto, confirman que todos los paneles en EEUU tanto de LG como de Sony llevan panel EVO, incluídas las C1.

Es muy interesante escucharles, siempre se aprende algo de los comentarios de estos grandes veteranos. Sueltan algunas perlitas sobre calibración y mediciones, diferencias de filosofía entre marcas sobre el detalle en sombra y primeros niveles de negro, etc.
Han tenido ya 50 unidades de la Sony. En breve sacan comparación de la A80J lado a lado con la C1, que es su rival previsto. La A90J la compararán con la G1, pero está claro que no es rival para la Sony, tanto por escalado como por la ausencia de heatsink.

Conclusión, se repite la disyuntiva del año pasado: cine (A90J) vs. gaming (LG). No tengo grandes esperanzas para este año de un tele que lo tenga todo. Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.

My understanding is that Sony is buying SoCs from Mediatek, and Mediatek hasn't gotten it working. So this would affect any manufacturer that is using the Mediatek SoCs, which I think includes the new Panasonic models as well...? LG and Samsung use their own chips. Philips also uses Mediatek.

Sony's divisions are infamous for not talking to each other or knowing what each other is doing, so extremely doubtful there is a coordinated company-wide VRR push. Also, you have to remember for the TVs, VRR is just as much Mediatek's issue as Sony's. Sony bought Mediateks SOCs with the promise the SOCs could be updated to support VRR. If Mediateks engineers can't figure out how to get their SOCs to use VRR properly, it's unlikely Sony's engineers alone could do anything.


Mismo fiasco que con el chip HDMI 2.1 de Denon/Marantz.

Esto se va a arreglar seguro, lo que no se sabe es en qué año: o bien porque LG saque un modelo con disipador, o bien porque Pana y Sony cambien el SOC a otro modelo en el que funcione todo. Y la incógnita serán los posibles OLED de Samsung. En mi caso dejo el upgrade en stand-by.

Disfrutad del cine! 🙂👍

Son unos auténticos cracks, tanto John como Robert y también Wayne. Un placer escucharlos hablar y se aprende mucho más que en ningún sitio la verdad.

Coincido al 100% con lo que dicen y con el tema del VRR ídem. Hasta donde se, Sony no ha implementado aún el VRR porque le pasa exactamente como a Pana: solo se sincronizan la mitad de los píxeles.

Eso si, tanto Pana como Sony tienen prometidos (y lo mejor: publicados como seguros) la implementación del VRR. Así que imagino que Mediatek es habrá dicho que si se puede. Les estará costando, pero poderse se tiene que poder.
 
Última edición:

Rokugan

Miembro 1080p
Registrado
10 Septiembre 2019
Genial lo qeu has puesto gracias por verlo por otros e informarnos.

Yo estaba por la A80 de 77 porque la 90 de 83 es ya un monstruo pero ya tengo decidido hace días que disipador si o si por lo que o me espero a 2022 a una de 77 si la sacan la A90 o la actua A90 de 83 pero la A80 ni de broma.

Mi razonamiento era sencillo: los mejores ingenieros estaban-están en Panasonic y estos llevan ya con el disipador un tiempo. Si ellos lo ponen es por algo (ese algo lo has puesto tu muy claro que es).

Por otra parte me he perdido un poco en lo del SocS y mediatek supongo qeu tengo que releer mensajes previos si bien si tiene que ver solo con los juegos no me importa porque yo no juego. ¿afecta el tema ese solo a juegos? Gracias

Como gastarse el dinero y lo que merece o no la pena según uso y condiciones es algo muy personal.

Estoy contigo, para cine yo me estiraría a comprar la A90J o las nuevas Panasonic con disipador. Como ya he dicho, a mi 100-150 nits más o menos no me importa mucho (tengo la luz OLED en mi E9 a 30/100 en SDR, nivel aprox correcto para visualización a oscuras). Pero entre el truco que te exprime otros 100ypico nits tan golosos para HDR, y las bondades cualitativas de estabilidad que te da el disipador, ya no tengo dudas de que sí merece la pena pagar la prima por la A90J.

Todo lo comentado respecto al SOC de Mediatek afecta únicamente a su uso en juegos, puedes estar tranquilo para uso en cine.
 
Última edición:

Djinn

Miembro UHD SDR
Registrado
30 Julio 2019
Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.
Ten en cuenta que es posible que la A90J siga siendo también tope de gama en 2022, porque a lo mejor Sony tampoco saca otra Master Series el año que viene. Lo hicieron el pasado año, donde la AG9 seguía siendo la tope de gama Master Series y solo la A8 vino a reemplazar la AG8. Tuvimos que esperar 2 años para ver el reemplazo de la AG9, esta A90J. Así que a lo mejor sale una A800K para sustituir a la A80J, por ponerle un nombre a los sustitutos de este año, pero no una A900K (supongo que se me entiende).

Por otro lado, Panasonic no parece seguir esta estrategia y saca tele nueva todos los años, pero con mejoras mínimas hasta ahora desde hace 2 (entre la GZ2000 y la HZ2000 apenas hay), y tampoco hacen progresos en lo que se refiere al escalado y a la nitidez, siendo el mismo desde hace 2 años (seguramente por decisión de la marca no quieran añadir ni más profundidad ni nitidez a la imagen para mimetizar de forma estricta la sensación cinematográfica, pero el escalado en bajas resoluciones sería mejorable para llegar al nivel de Sony). A eso añádele que el sonido apenas experimentó mejoras desde la GZ2000 (siguen con el mismo sistema Dolby Atmos hacia arriba, aunque este año le han añadido altavoces laterales a la JZ2000, pero NO es una revolución) y un punto negro importante es que apenas ha habido mejoras en el movimiento, sufriendo todavía el infame microstutter en 24p que llevan varios años arrastrando (veremos si lo corrigen en la nueva gama JZ, no hay ni una palabra sobre esto en la nota de prensa de Japón).

Debo reconocer que haces bien en esperar (pero en mi caso llevo yo 2 ya, desde la GZ2000, y mi plasma tendrá por entonces 14 años y se me acabará la paciencia antes), porque si no sale nueva Master Series, la A90J estará el año que viene a precio de derribo. Como está ahora la AG9 de 55", a 1600€ (y valía alrededor de los 2700-2800€ cuando salió, lo recuerdo perfectamente).

Suerte en tu decisión y saludos
 


Arriba