Sony OLED 2021: A90J y A80J

PERO lo que para mi se ve como mayor diferencia incluso entre A90 y A80 es el nivel de nitidez-realismo-detalle

Por ejemplo como comentó javier en los girasoles el de la A90 se ve mas real en todo y en juego de tronos en una escena de las puestas por Leoni que sale un tipo con una capa de pelo de animal se ve claramente como que la A90 tiene un nivel de realismo detalle tremendo
Creo que tu vista te puede estar engañando, o bien YouTube lo está haciendo (date cuenta de que ves las teles de una grabación de una cámara que luego ha sido comprimida para subirla, en realidad habría que verlas en persona para juzgar).

Lo que puede estar pasando es que la A90J es de 65", porque Leoni se la ha comprado para él (está pensándose quedársela o no), y que la A80J es una unidad de muestra de Sony en 55". Ya sabes que la de 10" mayor se ve con algo más de brillo y eso puede estar causándote la sensación de mayor viveza y realismo. Eso es comparar manzanas con peras, lo justo es hacerlo con otras manzanas (ambas de 55" o de 65"). Las dos deben verse con el mismo detalle y realismo y estoy seguro de que así es. Lo que varía es el brillo máximo; los "fogonazos" de luz van a ser más impactantes en la A90J que en la 80, pero la electrónica es prácticamente idéntica. Solo hay una pequeña diferencia entre las dos Sony que comento más atrás sobre el balance de blancos automático y que ya @Tocinillo ha incluido en el primer post del hilo (Gracias Javier).
 
En fin, yo estoy hasta las narices del tema del HDMI 2.1 y el SOC Mediatek, no me gusta nada lo que estoy leyendo. Como decía un calibrador americano hace un par de semanas, si las marcas lanzan sus productos sin finalizar, que metan un descuento del 25%.
Irónicamente, ya lo hicieron, aunque de forma progresiva y probablemente forzada. Si el precio de salida de, por ejemplo, la 55A90J fue de 2999€, luego se vendió por 2599€ y finalmente acabó en 2209€: (1 - 2209 / 2999) * 100 = 26% de descuento :D

Bromas aparte, solo LG lo ha hecho bien en este apartado, porque ellos estudiaron desde el principio la inclusión del estándar 2.1 completo (llevan varias generaciones ofreciéndolo). Tanto Panasonic como Sony se han visto obligadas a incluirlos por petición de la clientela (especialmente de los jugones con consolas de última generación), y como ellos ya tienen diseñada la programación del chip Mediatek no han querido cambiarlo por otro mejor para esta versión. O aceptamos esto u otro año más con solo HDMI 2.0. O bien uno puede tirar por la LG y perder todas las ventajas de brillo, escalado, profundidad, movimiento, actualizaciones del sistema operativo... pero a cambio tendrá una experiencia de juego única. Como yo no juego, a mí no me importa quedarme sin VRR, pero creo que es positivo que al menos hayan dejado esa posibilidad para más adelante que no tenerla. Cada uno debe decidir en función de sus necesidades: si ve más cine que juegos o viceversa, si no va a hacer uso del 4K/120 porque su consola no lo soporte, si se la va a quedar 2 años o 10... etc. Para eso está el mercado, para elegir lo que a uno más le conviene. Desgraciadamente, no hay nada perfecto en este mundo.
 
Ver el archivos adjunto 7141

100 nits de diferencia entre la A90J y la E9, ambas de 55' calibradas y medidas por Vincent Teoh.

He hablado con Leoni y me comenta lo mismo, hay diferencia de brillo pero no son 300 nits. La de Javier tiene dentro a toda la familia Gusiluz ? Además, si midió una variación de 200 nits entre dos unidades de la GZ2000, lo mismo podrá pasar con este modelo.

No obstante, empiezo a tener claro que la Sony se puede poner en un modo poco correcto desde un punto de vista de calibración, digamos un "semivívido", y sacarle mucho más brillo si es así como te gusta.

Como bien dices, la mayor diferencia está en el escalado y el movimiento del chip XR1, para mi es el auténtico valor añadido de Sony este año. El brillo es la guinda del pastel.

En fin, yo estoy hasta las narices del tema del HDMI 2.1 y el SOC Mediatek, no me gusta nada lo que estoy leyendo. Como decía un calibrador americano hace un par de semanas, si las marcas lanzan sus productos sin finalizar, que metan un descuento del 25%. Y cuando lancen el firmware y todo funcione correctamente según lo prometido, que cobren el importe restante.
En los mundos de Yupi, claro.

En fin, en agosto cuando salga la JZ1500 comparo y a ver como va el firmware del Sony por entonces.

Saludos

Si, pero piensa que en mi caso es en un modo completamente correcto. Es más, está calibrada profesionalmente y el AE está por debajo de 3 en balance y CMS.

Y no es solo lo mía, si no la de la mayoría de gente. La de D-Nice (65") mide ya 880 nits también sin el truco. Con él, rondará como la mía -950/1000- completamente calibrada.

300 nits en una escala logarítmica como la del HDR es "poco", para ver el doble de brillo que una TV de 1000 nits deberías tener al lado una que nos de 5000 nits. Haz una regla de tres con 610 (A80J de 55") y 850 (media de las A90J de 65"). ¿Qué % perceptual de brillo hay entre una y otra? Se nota más el ABL más relajado que esos 300 nits que es lo que llevo diciendo los últimos 4 años. La "diferencia" que vemos entre una QLED de gama alta y una OLED no es tanto por el brillo en L10 (1700 vs 900) si no por el ABL (hasta ahora eran 800 vs 130...).

Al margen de todo eso, mucha gente interpreta que más nits = quedarte ciego y tampoco es así. Ese brillo se usa para ver más detalle en altas luces...

Resumen de lo que estoy viendo por la red:

- A80J en 55" --> Unos 600 nits.
- A90J en 55" --> Unos 780-800 nits.
- A90J en 65" --> Unos 840-880 nits.
- C1 en 55" --> Unos 700 nits.
- C1 en 65" --> Unos 750 nits.
- G1 en 65" --> Unos 800-820 nits.

Un saludo!
 
Hola, veo que estás enterado del futuro de las Panasonic. En la nota de prensa traducida del japonés por un compañero nuestro, se dice que las JZ2000/JZ1500 tendrán 2 puertos HDMI 2.1 a 40Gpbs, no a 48Gbps. ¿Puedes confirmarnos esto? Sería una gran metedura de pata por parte de Panasonic no ofrecer puertos completos, cuando las nuevas Sony incluyen puertos a 48Gbps. Este fue el camino que escogió LG para su CX (y que fue motivo de muchas críticas).

Gracias.

Lo desconozco amigo, como tengo una X900H y leo los foros en inglés de Sony y los de otras marcas que tengan relación con algo como el anuncio de prensa de Panasonic y el problema también de su HDMI 2.1 es como se está destapando todo esto.

En la A90J ya dijo ayer Teoh que va a 40 Gbps, quizás y si vaya la Pana a esa velocidad o no, habrá que esperar hasta que las analicen.
 
Resumen de lo que estoy viendo por la red:

- A80J en 55" --> Unos 600 nits.
- A90J en 55" --> Unos 780-800 nits.
- A90J en 65" --> Unos 840-880 nits.
- C1 en 55" --> Unos 700 nits.
- C1 en 65" --> Unos 750 nits.
- G1 en 65" --> Unos 800-820 nits.

Un saludo!

Totalmente de acuerdo con este resúmen de cifras medias que dejas, cuadra completamente comparando mismos tamaños.

Por cierto, gracias y enhorabuena por perseguir el truco de extra de brillo en la AJ90, acabo de ver tu video y me ha dejado loco ?
Me parece una pasada lo de los 1.000 nits, me lo he guardado en favoritos para el futuro. Además tengo la misma sonda que tú enseñas en el video. A ver con lo que nos sale esta semana D-Nice.

Pongo velas para que entre Panasonic y Sony encuentren pronto la solución para resolver los flecos pendientes en gaming de sus puertos HDMI ?
 
En la A90J ya dijo ayer Teoh que va a 40 Gbps, quizás y si vaya la Pana a esa velocidad o no, habrá que esperar hasta que las analicen.
Pues me dejas de piedra, compañero, porque yo pensaba que sí llevaba un puerto completo a 48 como la LG C9 (tanto las C1 como G1 parece que también estarán capadas). Parece ser que los fabricantes se están apuntando al carro de recortar los puertos para bajar precios (como hizo también LG con la CX). Casi seguro que las Panasonic van a seguir ese camino por la nota de prensa publicada y, por lo tanto, no parece un error tipográfico de la nota.

Y yo me pregunto: ¿En qué se traduce el recorte de los puertos 2.1? Quiero decir, ¿qué es lo que no se va a poder hacer que sí se podría hacer con un HDMI 2.1 completo a 48Gbps?

Gracias
 
Última edición:
Pues me dejas de piedra, compañero, porque yo pensaba que sí llevaba un puerto completo a 48 como la LG C9 (tanto las C1 como G1 parece que también estarán capadas). Parece ser que los fabricantes se están apuntando al carro de recortar los puertos para bajar precios (como hizo también LG con la CX). Casi seguro que las Panasonic van a seguir ese camino por la nota de prensa publicada y, por lo tanto, no parece un error tipográfico de la nota.

Y yo me pregunto: ¿En qué se traduce el recorte de los puertos 2.1? Quiero decir, ¿qué es lo que no se va a poder hacer que sí se podría hacer con un HDMI 2.1 completo a 48Gbps?

Gracias

La única diferencia es que usas 10 bit rgb 4:4:4: al ir en 40 Gbps, y 12 bit rgb 4:4:4 es para 48 Gbps ambos en 120Hz. Todo el ancho de banda del HDMI 2.1.

La Series X va a 40 Gbps, PS5 a 32Gbps, las series 3000 o 6000 de nvidia o amd respectivamente no sé si van a 12 bit pero a 10 bit es un hecho.

Y quizás lo caparon por el hecho de que los paneles son de 10 bit, y la gradación de color a 12 bit se reduce ya que no fue fabricado con esas características nativas. Las LG de 2019 son una excepción por ser tan verde el puerto.
 
La única diferencia es que usas 10 bit rgb 4:4:4: al ir en 40 Gbps, y 12 bit rgb 4:4:4 es para 48 Gbps ambos en 120Hz. Todo el ancho de banda del HDMI 2.1.

La Series X va a 40 Gbps, PS5 a 32Gbps, las series 3000 o 6000 de nvidia o amd respectivamente no sé si van a 12 bit pero a 10 bit es un hecho.

Y quizás lo caparon por el hecho de que los paneles son de 10 bit, y la gradación de color a 12 bit se reduce ya que no fue fabricado con esas características nativas. Las LG de 2019 son una excepción por ser tan verde el puerto.

Hoy por hoy, sólo un PC saca 48 Gbps (4k 120hz 12 bits), pero como bien dices el panel de LG es 4K 10 bits nativo, por mucho que le puedas alimentar 12 bits.

Una pequeña ventaja que esgrimía Vincent Teoh en su día es que siempre es mejor tener cierto "margen" al usar una "tubería" de datos, y que sobre ancho de banda. Pero vaya, más que los 40 vs 48 Gbps lo que realmente importa es cómo soportan los puertos el resto de características del 2.1 (ALLM, VRR/ G-Sync/ Free Sync Premium, HDR @ 120 Hz, latencia, etc.) que es dónde LG le saca una cabeza al resto de marcas. Sólo es relevante en gaming.

Anchos de banda necesarios para cada resolución:


q44it1HMK-JJAQltUvA4r45UlRAO2uHcXgO3WKZvC9E.jpg
 
Creo que tu vista te puede estar engañando, o bien YouTube lo está haciendo (date cuenta de que ves las teles de una grabación de una cámara que luego ha sido comprimida para subirla, en realidad habría que verlas en persona para juzgar).

Lo que puede estar pasando es que la A90J es de 65", porque Leoni se la ha comprado para él (está pensándose quedársela o no), y que la A80J es una unidad de muestra de Sony en 55". Ya sabes que la de 10" mayor se ve con algo más de brillo y eso puede estar causándote la sensación de mayor viveza y realismo. Eso es comparar manzanas con peras, lo justo es hacerlo con otras manzanas (ambas de 55" o de 65"). Las dos deben verse con el mismo detalle y realismo y estoy seguro de que así es. Lo que varía es el brillo máximo; los "fogonazos" de luz van a ser más impactantes en la A90J que en la 80, pero la electrónica es prácticamente idéntica. Solo hay una pequeña diferencia entre las dos Sony que comento más atrás sobre el balance de blancos automático y que ya @Tocinillo ha incluido en el primer post del hilo (Gracias Javier).

Discrepo en el tema del brillo y la nitidez A90 vs A80

Se ve claramente en los videos sin perjuicio de que además lo digan los que los comentan que la 90 tiene algo más de punch que la 80. ¿Que los 300 o 200 nits más no son un 30% ni un 20% más de brillo? Eso ya lo sabemos pero la 90 se ve con otro punch. Aunque comparemos dos de 65 se va a ver la 90 con otro punch. Por el abl por el disipador por lo que sea.

Tb se ve que ese efecto 3D o realismo es algo superior.

Cuando Javier Tocinillo hacía la comparativa A90vsA80 y salía el ciervo se veía diferente el hocico (tenía como textura en la 90 y era más plano en la 80) y cuando salió la noria en las Vegas antes de que Javier dijera que tenía otro efecto en la A90 yo ya me había dado cuenta, y en las pipas y pétalos de los girasoles idem.

Dicho esto te llevas la A80 para casa y a los tres días te has olvidado del brillo y del detalle pero los que queremos un tv Premium queremos la 90, y eso que en SD y dolby se ven iguales (incluso en dolby casi idem con la C9 ojo!! Según se ha dicho en la review) y el escalado y el movimiento son idénticos A90 y A80 pero la 90 tiene eso: más brillo y más nitidez efecto 3D.

Eso es indiscutible a mi juicio
 
Me acabo de ver el video completo de Robert Zohn y John Reformato (uno de los mejores calibradores del EEUU) y me quedan ya muy pocas dudas sobre las bondades de la A90J para cine. El heatsink en las OLED es un claro valor añadido para los entusiastas ya que aporta estabilidad a la imagen, lo que se traduce en highlights no sólo más brillantes sino más sostenidos, y la posibilidad de calibrar la TV de forma más precisa. También aporta longevidad y menos retenciones, como ya sabíamos. LG pensó que la mayor eficiencia del panel EVO sería suficiente para empujar un poco más sus límites en la G1, pero la realidad es que se ha quedado un paso por detrás como tope de gama. Por cierto, confirman que todos los paneles en EEUU tanto de LG como de Sony llevan panel EVO, incluídas las C1.

Es muy interesante escucharles, siempre se aprende algo de los comentarios de estos grandes veteranos. Sueltan algunas perlitas sobre calibración y mediciones, diferencias de filosofía entre marcas sobre el detalle en sombra y primeros niveles de negro, etc.
Han tenido ya 50 unidades de la Sony. En breve sacan comparación de la A80J lado a lado con la C1, que es su rival previsto. La A90J la compararán con la G1, pero está claro que no es rival para la Sony, tanto por escalado como por la ausencia de heatsink.

Conclusión, se repite la disyuntiva del año pasado: cine (A90J) vs. gaming (LG). No tengo grandes esperanzas para este año de un tele que lo tenga todo. Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.

My understanding is that Sony is buying SoCs from Mediatek, and Mediatek hasn't gotten it working. So this would affect any manufacturer that is using the Mediatek SoCs, which I think includes the new Panasonic models as well...? LG and Samsung use their own chips. Philips also uses Mediatek.

Sony's divisions are infamous for not talking to each other or knowing what each other is doing, so extremely doubtful there is a coordinated company-wide VRR push. Also, you have to remember for the TVs, VRR is just as much Mediatek's issue as Sony's. Sony bought Mediateks SOCs with the promise the SOCs could be updated to support VRR. If Mediateks engineers can't figure out how to get their SOCs to use VRR properly, it's unlikely Sony's engineers alone could do anything.


Mismo fiasco que con el chip HDMI 2.1 de Denon/Marantz.

Esto se va a arreglar seguro, lo que no se sabe es en qué año: o bien porque LG saque un modelo con disipador, o bien porque Pana y Sony cambien el SOC a otro modelo en el que funcione todo. Y la incógnita serán los posibles OLED de Samsung. En mi caso dejo el upgrade en stand-by.

Disfrutad del cine! ??
 
Me acabo de ver el video completo de Robert Zohn y John Reformato (uno de los mejores calibradores del EEUU) y me quedan ya muy pocas dudas sobre las bondades de la A90J para cine. El heatsink en las OLED es un claro valor añadido para los entusiastas ya que aporta estabilidad a la imagen, lo que se traduce en highlights no sólo más brillantes sino más sostenidos, y la posibilidad de calibrar la TV de forma más precisa. También aporta longevidad y menos retenciones, como ya sabíamos. LG pensó que la mayor eficiencia del panel EVO sería suficiente para empujar un poco más sus límites en la G1, pero la realidad es que se ha quedado un paso por detrás como tope de gama. Por cierto, confirman que todos los paneles en EEUU tanto de LG como de Sony llevan panel EVO, incluídas las C1.

Es muy interesante escucharles, siempre se aprende algo de los comentarios de estos grandes veteranos. Sueltan algunas perlitas sobre calibración y mediciones, diferencias de filosofía entre marcas sobre el detalle en sombra y primeros niveles de negro, etc.
Han tenido ya 50 unidades de la Sony. En breve sacan comparación de la A80J lado a lado con la C1, que es su rival previsto. La A90J la compararán con la G1, pero está claro que no es rival para la Sony, tanto por escalado como por la ausencia de heatsink.

Conclusión, se repite la disyuntiva del año pasado: cine (A90J) vs. gaming (LG). No tengo grandes esperanzas para este año de un tele que lo tenga todo. Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.

My understanding is that Sony is buying SoCs from Mediatek, and Mediatek hasn't gotten it working. So this would affect any manufacturer that is using the Mediatek SoCs, which I think includes the new Panasonic models as well...? LG and Samsung use their own chips. Philips also uses Mediatek.

Sony's divisions are infamous for not talking to each other or knowing what each other is doing, so extremely doubtful there is a coordinated company-wide VRR push. Also, you have to remember for the TVs, VRR is just as much Mediatek's issue as Sony's. Sony bought Mediateks SOCs with the promise the SOCs could be updated to support VRR. If Mediateks engineers can't figure out how to get their SOCs to use VRR properly, it's unlikely Sony's engineers alone could do anything.


Mismo fiasco que con el chip HDMI 2.1 de Denon/Marantz.

Esto se va a arreglar seguro, lo que no se sabe es en qué año: o bien porque LG saque un modelo con disipador, o bien porque Pana y Sony cambien el SOC a otro modelo en el que funcione todo. Y la incógnita serán los posibles OLED de Samsung. En mi caso dejo el upgrade en stand-by.

Disfrutad del cine! ??

Genial lo qeu has puesto gracias por verlo por otros e informarnos.

Yo estaba por la A80 de 77 porque la 90 de 83 es ya un monstruo pero ya tengo decidido hace días que disipador si o si por lo que o me espero a 2022 a una de 77 si la sacan la A90 o la actua A90 de 83 pero la A80 ni de broma.

Mi razonamiento era sencillo: los mejores ingenieros estaban-están en Panasonic y estos llevan ya con el disipador un tiempo. Si ellos lo ponen es por algo (ese algo lo has puesto tu muy claro que es).

Por otra parte me he perdido un poco en lo del SocS y mediatek supongo qeu tengo que releer mensajes previos si bien si tiene que ver solo con los juegos no me importa porque yo no juego. ¿afecta el tema ese solo a juegos? Gracias
 
Me acabo de ver el video completo de Robert Zohn y John Reformato (uno de los mejores calibradores del EEUU) y me quedan ya muy pocas dudas sobre las bondades de la A90J para cine. El heatsink en las OLED es un claro valor añadido para los entusiastas ya que aporta estabilidad a la imagen, lo que se traduce en highlights no sólo más brillantes sino más sostenidos, y la posibilidad de calibrar la TV de forma más precisa. También aporta longevidad y menos retenciones, como ya sabíamos. LG pensó que la mayor eficiencia del panel EVO sería suficiente para empujar un poco más sus límites en la G1, pero la realidad es que se ha quedado un paso por detrás como tope de gama. Por cierto, confirman que todos los paneles en EEUU tanto de LG como de Sony llevan panel EVO, incluídas las C1.

Es muy interesante escucharles, siempre se aprende algo de los comentarios de estos grandes veteranos. Sueltan algunas perlitas sobre calibración y mediciones, diferencias de filosofía entre marcas sobre el detalle en sombra y primeros niveles de negro, etc.
Han tenido ya 50 unidades de la Sony. En breve sacan comparación de la A80J lado a lado con la C1, que es su rival previsto. La A90J la compararán con la G1, pero está claro que no es rival para la Sony, tanto por escalado como por la ausencia de heatsink.

Conclusión, se repite la disyuntiva del año pasado: cine (A90J) vs. gaming (LG). No tengo grandes esperanzas para este año de un tele que lo tenga todo. Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.

My understanding is that Sony is buying SoCs from Mediatek, and Mediatek hasn't gotten it working. So this would affect any manufacturer that is using the Mediatek SoCs, which I think includes the new Panasonic models as well...? LG and Samsung use their own chips. Philips also uses Mediatek.

Sony's divisions are infamous for not talking to each other or knowing what each other is doing, so extremely doubtful there is a coordinated company-wide VRR push. Also, you have to remember for the TVs, VRR is just as much Mediatek's issue as Sony's. Sony bought Mediateks SOCs with the promise the SOCs could be updated to support VRR. If Mediateks engineers can't figure out how to get their SOCs to use VRR properly, it's unlikely Sony's engineers alone could do anything.


Mismo fiasco que con el chip HDMI 2.1 de Denon/Marantz.

Esto se va a arreglar seguro, lo que no se sabe es en qué año: o bien porque LG saque un modelo con disipador, o bien porque Pana y Sony cambien el SOC a otro modelo en el que funcione todo. Y la incógnita serán los posibles OLED de Samsung. En mi caso dejo el upgrade en stand-by.

Disfrutad del cine! ??

Son unos auténticos cracks, tanto John como Robert y también Wayne. Un placer escucharlos hablar y se aprende mucho más que en ningún sitio la verdad.

Coincido al 100% con lo que dicen y con el tema del VRR ídem. Hasta donde se, Sony no ha implementado aún el VRR porque le pasa exactamente como a Pana: solo se sincronizan la mitad de los píxeles.

Eso si, tanto Pana como Sony tienen prometidos (y lo mejor: publicados como seguros) la implementación del VRR. Así que imagino que Mediatek es habrá dicho que si se puede. Les estará costando, pero poderse se tiene que poder.
 
Última edición:
Genial lo qeu has puesto gracias por verlo por otros e informarnos.

Yo estaba por la A80 de 77 porque la 90 de 83 es ya un monstruo pero ya tengo decidido hace días que disipador si o si por lo que o me espero a 2022 a una de 77 si la sacan la A90 o la actua A90 de 83 pero la A80 ni de broma.

Mi razonamiento era sencillo: los mejores ingenieros estaban-están en Panasonic y estos llevan ya con el disipador un tiempo. Si ellos lo ponen es por algo (ese algo lo has puesto tu muy claro que es).

Por otra parte me he perdido un poco en lo del SocS y mediatek supongo qeu tengo que releer mensajes previos si bien si tiene que ver solo con los juegos no me importa porque yo no juego. ¿afecta el tema ese solo a juegos? Gracias

Como gastarse el dinero y lo que merece o no la pena según uso y condiciones es algo muy personal.

Estoy contigo, para cine yo me estiraría a comprar la A90J o las nuevas Panasonic con disipador. Como ya he dicho, a mi 100-150 nits más o menos no me importa mucho (tengo la luz OLED en mi E9 a 30/100 en SDR, nivel aprox correcto para visualización a oscuras). Pero entre el truco que te exprime otros 100ypico nits tan golosos para HDR, y las bondades cualitativas de estabilidad que te da el disipador, ya no tengo dudas de que sí merece la pena pagar la prima por la A90J.

Todo lo comentado respecto al SOC de Mediatek afecta únicamente a su uso en juegos, puedes estar tranquilo para uso en cine.
 
Última edición:
Para cuando arreglen el VRR/ALLM/HDR en juegos a final de año, si es que lo consiguen (lo dudo seriamente), ya casi me espero a los modelos del 2022.
Ten en cuenta que es posible que la A90J siga siendo también tope de gama en 2022, porque a lo mejor Sony tampoco saca otra Master Series el año que viene. Lo hicieron el pasado año, donde la AG9 seguía siendo la tope de gama Master Series y solo la A8 vino a reemplazar la AG8. Tuvimos que esperar 2 años para ver el reemplazo de la AG9, esta A90J. Así que a lo mejor sale una A800K para sustituir a la A80J, por ponerle un nombre a los sustitutos de este año, pero no una A900K (supongo que se me entiende).

Por otro lado, Panasonic no parece seguir esta estrategia y saca tele nueva todos los años, pero con mejoras mínimas hasta ahora desde hace 2 (entre la GZ2000 y la HZ2000 apenas hay), y tampoco hacen progresos en lo que se refiere al escalado y a la nitidez, siendo el mismo desde hace 2 años (seguramente por decisión de la marca no quieran añadir ni más profundidad ni nitidez a la imagen para mimetizar de forma estricta la sensación cinematográfica, pero el escalado en bajas resoluciones sería mejorable para llegar al nivel de Sony). A eso añádele que el sonido apenas experimentó mejoras desde la GZ2000 (siguen con el mismo sistema Dolby Atmos hacia arriba, aunque este año le han añadido altavoces laterales a la JZ2000, pero NO es una revolución) y un punto negro importante es que apenas ha habido mejoras en el movimiento, sufriendo todavía el infame microstutter en 24p que llevan varios años arrastrando (veremos si lo corrigen en la nueva gama JZ, no hay ni una palabra sobre esto en la nota de prensa de Japón).

Debo reconocer que haces bien en esperar (pero en mi caso llevo yo 2 ya, desde la GZ2000, y mi plasma tendrá por entonces 14 años y se me acabará la paciencia antes), porque si no sale nueva Master Series, la A90J estará el año que viene a precio de derribo. Como está ahora la AG9 de 55", a 1600€ (y valía alrededor de los 2700-2800€ cuando salió, lo recuerdo perfectamente).

Suerte en tu decisión y saludos
 
Son unos auténticos cracks, tanto John como Robert y también Wayne. Un placer escucharlos hablar y se aprende mucho más que en ningún sitio la verdad.

Coincido al 100% con lo que dicen y con el tema del VRR ídem. Hasta donde se, Sony no ha implementado aún el VRR porque le pasa exactamente como a Pana: solo se sincronizan la mitad de los píxeles.

Eso si, tanto Pana como Sony tienen prometidos (y lo mejor: publicados como seguros) la implementación del VRR. Así que imagino que Mediatek es habrá dicho que si se puede. Les estará costando, pero poderse se tiene que poder.

Respecto de lo que comentas del VRR y si no me equivoco y mi inglés me lo ha permitido me llamó la atención como Vicent Teoh al final de la review y en plan por decir algo malo de la A90 jajajjaja se suelta el rollo (por otro lado lógico y tal...) de que si eres futuro comprador y gamer te asegures bien de todo el VRR y tal ....

Pero era simpático ver como el tipo como por decir alguna pega dice eso..... como para que no se le notase mucho su entusiasmo por la A90

Y dicho sea de paso si yo fuera gamer me costaría mucho no irme a una LG
 
Respecto de lo que comentas del VRR y si no me equivoco y mi inglés me lo ha permitido me llamó la atención como Vicent Teoh al final de la review y en plan por decir algo malo de la A90 jajajjaja se suelta el rollo (por otro lado lógico y tal...) de que si eres futuro comprador y gamer te asegures bien de todo el VRR y tal ....

Pero era simpático ver como el tipo como por decir alguna pega dice eso..... como para que no se le notase mucho su entusiasmo por la A90

Y dicho sea de paso si yo fuera gamer me costaría mucho no irme a una LG

Normal, porque tienes que hacer un acto de fe de que esa actualización -que llegará- llegue bien. Esto es que no tenga problemas o que sea a 8 bits o alguna cosa de esas.

Yo si fuera gamer también me iría a LG si o si, pero vamos sin duda. Igual que si vas a usarla para cine me iría a Sony también sin dudarla. Sigo flipando que mi unidad esté tocando los 1000 nits con los WRGB a tope y con un ABL de 210 nits.
 
Debo reconocer que haces bien en esperar (pero en mi caso llevo yo 2 ya, desde la GZ2000, y mi plasma tendrá por entonces 14 años y se me acabará la paciencia antes), porque si no sale nueva Master Series, la A90J estará el año que viene a precio de derribo. Como está ahora la AG9 de 55", a 1600€ (y valía alrededor de los 2700-2800€ cuando salió, lo recuerdo perfectamente).

Suerte en tu decisión y saludos

Me pasó ya con las Panasonic GZ/HZ ya, andaba rabiando por los foros y youtube porque no tenían HDMI 2.1. Este año por fin lo meten Sony y Pana y resultan que eligen el SOC malo, arghhhh que rabia me da.

Soy absolutamente incapaz de elegir entre cine y juegos, soy perfecccionista y necesito que ambos funcionen como deben. Partiendo de la base de que en mi E9 todo va perfecto en ese sentido y la calidad de imagen es muy buena ya de partida. Hay cosas como el VRR o la latencia a las que el cerebro se acostumbra, y luego ya no hay vuelta atrás. Lo mismo me pasa con el HFR, veo todas las pelis a 60 fps desde hace años y mi cerebro ya no admite los 24 frames. Es una suavidad que para mi ya es irrenunciable. Por eso las decisiones son tan personales, al final.

Por cierto, otra cosa que comentaron en el video, es que en la Sony el sonido es realmente bueno. Lógicamente siempre recomiendan un home cinema para disfrutar del cine a tope, pero quedaron muy gratamente sorprendidos con la mejora en audio de Sony este año. Otro mini-punto para Sony :)
 
Todo lo comentado respecto al SOC de Mediatek afecta únicamente a su uso en juegos, puedes estar tranquilo para uso en cine.
¿Seguro? Porque otra de las consecuencias del Mediatek es que no podemos reproducir 4K@120Hz con DV, aunque no sé si esto es posible hacerlo en la G1 ¿? Y por cierto, según la tabla que posteaste, los 40Gbps van muy JUSTOS para reproducir 4K@120 RGB 4:4:4 10-bit (en realidad, se necesitan 40.1)...

Yo, aunque estoy entusiasmado con la A90J (y ya he hecho medidas de todo tipo en mi mueble para ver si podemos acomodarla, y parece que cabrá a lo justo), tengo todavía un pequeño temor, porque está por ver cuánto soporta la obsolescencia. Porque no soy como la mayoría de vosotros, que cambiais de TV a los 3-5 años, suelo conservarlas una media de 10 (ahí está mi plasma con 13 sin TDT-HD siquiera), y me pregunto cuándo se hará un estándar las películas a 4K@120 con DV, porque entiendo que algún día eso llegará (ya hay 2 películas en 4K@60 con DV según el usuario @willrock66 ).

Ahí lo dejo, a ver si podéis decirme algo (ya sé que no tenéis una bola de cristal). Gracias
 
¿Seguro? Porque otra de las consecuencias del Mediatek es que no podemos reproducir 4K@120Hz con DV, aunque no sé si esto es posible hacerlo en la G1 ¿? Y por cierto, según la tabla que posteaste, los 40Gbps van muy JUSTOS para reproducir 4K@120 RGB 4:4:4 10-bit (en realidad, se necesitan 40.1)...

Yo, aunque estoy entusiasmado con la A90J (y ya he hecho medidas de todo tipo en mi mueble para ver si podemos acomodarla, y parece que cabrá a lo justo), tengo todavía un pequeño temor, porque está por ver cuánto soporta la obsolescencia. Porque no soy como la mayoría de vosotros, que cambiais de TV a los 3-5 años, suelo conservarlas una media de 10 (ahí está mi plasma con 13 sin TDT-HD siquiera), y me pregunto cuándo se hará un estándar las películas a 4K@120 con DV, porque entiendo que algún día eso llegará (ya hay 2 películas en 4K@60 con DV según el usuario @willrock66 ).

Ahí lo dejo, a ver si podéis decirme algo (ya sé que no tenéis una bola de cristal). Gracias

No hay ni habrá ninguna película a 4K@120 fps en DV ni en HDR.
 
Atrás
Arriba