LG OLED 2020: BX, CX, GX, RX y ZX (8K)

Por cierto de la review de flatpanels hay varias cosas que están mal y van a corregir:

- Tanto la CX como la C9 tienen soporte completo G-Sync incluyendo HDR, en la review comentaba lo contrario.
- Según Larsen, la C9 recibirá una actualización donde también veremos el Dolby Vision IQ.

Ya si la diferencia enrtre modelos era enana ahora es pírrica.
 
No se sabe, yo hace tiempo que dije que si vendría.

El filmmaker me da igual, ya habéis visto que es exactamente igual que el modo Cine
 
Podían meter el modo Filmmaker también... Pero me da que no...

¿De lo que no se sabe nada es de Freesync no? Por el tema de que la PS5 pueda venir sólo con ese sistema...


En principio deberia soportar con VRR hdmi 2.1 y con eso seria suficiente. Si lo ponen sera por firmware. Lo que pasa es que por vrr se parte de 40-45fps para arriba y eso igual a los desarrolladores o a sony no les hace gracia. Con freesync no pasa.

Yo espero que se porten y lo activen en c9. Buena noticia eso del dolby vision IQ

Buscando más información:

VRR came into play and allowed monitors to handle the refresh sync. With VRR the display matches the device refresh rate as opposed to the other way around. G-Sync and Free-Sync are both forms of VRR. The biggest difference between the two is G-Sync requires a module in the display while FreeSync uses the Adaptive-Sync protocol that was built into DisplayPort and later HDMI.

With G-Sync, the module is handling the bulk of the work as opposed to the GPU. Although FreeSync doesn't put nearly as much of a load on the GPU as V-Sync did!

Pues parece ser que el freesync no deberia haber problema en ponerlo como firmware ya que este es un protocolo que se activa mediante DP o HDMI. Mientras que G-Sync es necesario un modulo de hardware (por suerte, del cual ya tenemos). Eso si, el v-sync siempre me pareció un mojón, en pc lo desactivas limitando el framerate, en consolas no sé si lo hace pero para evitar eso esta el freesync y el VRR.

Lo que no sé si el nuevo gsync ultimate sera por hardware o software que traeran algunos monitores mini led de este año
 
Última edición:
Acaba de confirmar D-Nice que la estructura de pixeles de las CX es exactamente igual que las de las C9.

Lo que comenté de la review de flatpanelshd: es exactamente la misma tele...o hasta peor. ¡Se han cargado el soporte de DTS!!
 

Archivos adjuntos

  • Screenshot_20200331-235704.png
    Screenshot_20200331-235704.png
    302.3 KB · Visitas: 149
  • Screenshot_20200401-000459.png
    Screenshot_20200401-000459.png
    329.1 KB · Visitas: 142
Última edición:
Es decir, que a mí el eARC nada más que me vale para tener el Oppo conectado a la TV (no sé por qué el AVR se me hace un lío si tengo el Oppo conectado a los 2 dispositivos) y si no hace passthrough las TVs del 2020, vaya gracia que me haría y más nos hará cuando las apps internas de la TV emitan con sonido HD y no pasan por eARC ni en las del 2019 y ni las del 2020.
 
Lo del arc y earc como dice la noticia aún no está confirmado. No sabemos si dejará o no pasar el codec.
 
Estoy por comprar una oled de 55” para usar de monitor para una gamer pc, en este momento por cual se irian¿ lg C9 o Bx... en mexoco llego primero la BX por lo cual la CX no es opcion

gracias
 
Siendo totalmente agnóstico en cuanto a marcas y amante de los estándares abiertos y cuántas más funciones tengan nuestras teles, mejor, pienso que Samsung no soporte el mejor Tone Mapping Dinámico que existe, Dolby Visión, me parece una estupidez por parte de Samsung. Que sí, que está muy bien ampliar el perfil HDR10 y darle unos valores dinámicos artificiales escena a escena, y hacer un estandar "libre" con tal de no pagarle unas perras a Dolby, que es de lo que se trata al final, Samsung no quiere pagarle perras a Dolby por licencias y tal, pero es que Dolby Visión no solo usa un espacio de color mayor, con mayor profundidad de bits y a mayor bitrate, es que hace Tone Mapping FRAME a FRAME. HDR10+ es un inventillo en comparación con el que se ha empeñado Samsung.

Que Samsung y Amazon apoyen HDR10+ es igual a nada en el devenir de la industria audiovisual. Más que nada porque HDR10+ es una extensión del container HDR10 y tiene sus limitaciones con respecto a Dolby Visión, que es bastante mejor y tal entre otras cosas porque masteriza a mayor profundidad de bits. También, muchas rooms de colorimetría y/o masterizado se montan por Dolby o tienen equipos de hardware calibrados por Dolby Laboratories, HDR10+ supongo que serán perfiles de software, no me he molestado en mirar la verdad. Dolby Laboratories lleva muchas décadas proveyendo a la industria y los usuarios de standards y herramientas tanto en sonido como en imagen, desde la grabación a la colorimetría, mixing y masterizado tanto en imagen como sonido a la proyección en salas o nuestro salón. Vamos, es que no hay color. :LOL:

Me gustaría ver qué está Samsung preparando para un futuro en contraposición a lo que se está cocinando ahora mismo en la división de I&D de Dolby Laboratories. Porque al final del día, Samsung fábrica teles y lavadoras, Dolby fabrica CINE. :D


Bufff muchas cosas que aclarar.

HDR10+ lo sacaron 20 century FOX, Panasonic y Samsung, no es un "inventillo" del conserje de Samsung en sus ratos libres.

Segundo el HDR10+ tambien va frame a frame, no se porque dices que solo lo hace DV.

DV es mejor, si en numeros si, pero claro luego lo ves en paneles que no pueden sacar provecho de el , no vas a ver paneles de 12 bits, ni con los suficientes nits, con lo que al final te comes un huevo de tone mapping, y ya sabemos lo que ello conlleva.

A la hora de la verdad las diferencias son que el HDR10+ soporta hasta 4000 nits frente a los 10000 de DV
Y que el HDR10+ es a 10 bits frente DV que soporta hasta 12bits.
Ambos soportan datos dinamicos frame a frame exctamente de la misma forma.

Hoy por hoy con los numeros en la mano en realidad la mayoria de peliculas se encuadran dentro de los margenes de HDR10+ y va a seguir asi por mucho mucho mucho tiempo.

Asi que siento decirte que en realidad si ambos metodos estan bien implementados poca diferencia vas a ver.


Luego ya hablando de si LG convierte un HDR10 en HDR10+ " al vuelo" la respuesta es no, si puede aplicar un tone mapping dinamico, de hecho la Samsung lo hace tambien, pero no llega al nivel del HDR10+ ni del DV obviamente.

Con todo el respeto del mundo no veo la necesidad de desmerecer a uno para hacer ver mejor al otro.

Un saludo
 
En realidad no es así del todo, ya puso @calibrador varias comparativas donde el HDR10 con tone mapping y el HDR10+ eran 99% idénticos, mientras que el DV si que era bastante diferente en algunas demos y tomas concretas con muchos nits y demás.

Básicamente Dolby si masteriza frame a frame sus películas en un laboratorio con un colorista y un director de fotografía. Y la capa resultante es una especie de "mapa de calor" que se aplica sobre la capa que contiene el vídeo normal.

HDR10+ es, básicamente, un HDR10 normal con un archivo (imaginaos un txt por ejemplo) que le indica al reproductor en que partes de la película tiene que ir modificando la curva PQ EOTF. Eso es exactamente lo mismo que hace LG con su Dynamic Tone Mapping por ejemplo, de ahí que las diferencias sean pírricas. ¿Cual es la diferencia, entonces? que el archivo del HDR10+ se supone que lo hace un estudio, profesionales, etc que ven donde hace falta modificar la curva y donde no, mientras que el Dynamic Tone Mapping lo hace una CPU mediante una serie de algoritmos "al vuelo". Pero la técnica es exactamente igual.

Dolby Vision es un animal completamente distinto. Al margen de que se masteriza a 12 bits directamente, etc.

Resumen:

HDR10 --> Metadatos estáticos genéricos para toda la peli.
HDR10+ --> Metadatos estáticos genéricos para toda la peli que luego se intentan cambiar a dinámicos a posteriori modificando la curva (esto hará que de el pego muchas veces, pero otras oscurecerá mucho o lavará mucho la imagen, ya que no hay control sobre la imagen, solo se puede subir o bajar la curva, como hace LG con el Dynamic Tone Mapping).
Dolby Vision --> Metadatos dinámicos reales, control total sobre la imagen y todas las partes de la misma, aplicando nits exactamente donde se requiere y además frame a frame.

Al margen de todo eso, para mi la diferencia entre HDR10+, HDR10 con Tone Mapping y Dolby Vision son tan sutiles que en el 90% de los casos no te darías cuenta. Y eso sin mencionar que muchas veces gusta hasta más la versión HDR10 (caso de LG) o que la implementación del HDR10+Tone mapping es superior a la del dolby vision (caso de las Sony por ejemplo). En algunas películas si se nota más el Dolby Vision, pero pocas la verdad.

Comparativas de @calibrador :


Ejemplos:

DOLBY VISION
USJ3Nh9.jpg


HDR10 4000 NITS / P3 CON TONEMAPPING (UB9000, HDR OPTIMIZER)
RmDIm1y.jpg


GZ950 HDR10 4000 NITS / P3 SIN TONEMAPPING
DPBxHX2.jpg
 
Última edición:
En realidad no es así del todo, ya puso @calibrador varias comparativas donde el HDR10 con tone mapping y el HDR10+ eran 99% idénticos, mientras que el DV si que era bastante diferente en algunas demos y tomas concretas con muchos nits y demás.

Básicamente Dolby si masteriza frame a frame sus películas en un laboratorio con un colorista y un director de fotografía. Y la capa resultante es una especie de "mapa de calor" que se aplica sobre la capa que contiene el vídeo normal.

HDR10+ es, básicamente, un HDR10 normal con un archivo (imaginaos un txt por ejemplo) que le indica al reproductor en que partes de la película tiene que ir modificando la curva PQ EOTF. Eso es exactamente lo mismo que hace LG con su Dynamic Tone Mapping por ejemplo, de ahí que las diferencias sean pírricas. ¿Cual es la diferencia, entonces? que el archivo del HDR10+ se supone que lo hace un estudio, profesionales, etc que ven donde hace falta modificar la curva y donde no, mientras que el Dynamic Tone Mapping lo hace una CPU mediante una serie de algoritmos "al vuelo". Pero la técnica es exactamente igual.

Dolby Vision es un animal completamente distinto. Al margen de que se masteriza a 12 bits directamente, etc.

Al margen de todo eso, para mi la diferencia entre HDR10+, HDR10 con Tone Mapping y Dolby Vision son tan sutiles que en el 90% de los casos no te darías cuenta. Y eso sin mencionar que muchas veces gusta hasta más la versión HDR10 (caso de LG) o que la implementación del HDR10+Tone mapping es superior a la del dolby vision (caso de las Sony por ejemplo).

Comparativas de @calibrador :


Ejemplos:

DOLBY VISION
USJ3Nh9.jpg


HDR10 4000 NITS / P3 CON TONEMAPPING (UB9000, HDR OPTIMIZER)
RmDIm1y.jpg


GZ950 HDR10 4000 NITS / P3 SIN TONEMAPPING
DPBxHX2.jpg


HDR10+ si actualiza frame a frame, pero que puedas hacerlo no significa que lo usen, en muchas se hace escena a escena.

HDR10+ dynamic metadata, on the other hand, can adjust brightness levels, color saturation, and contrast on a scene-by-scene or even frame-by-frame basis, producing images that are closer to the director's intent.

https://alliance.experienceuhd.com/news/what-hdr10


Y como en toda comparativa segun que veas resultara una u otra mejor, o peor, ya que dependera de "lo bien " que este hecho.

Pero si tengo claro algo es que al final es mas importante en donde la veas que en que formato de HDR la veas.

Por cierto te dejo este video, no se si lo conocias, posiblemente la mejor comparativa que he visto, esta en HDR asi que si podeis verla asi.


Y esta otra la cojo con pinzas, por un tema que no viene al caso ahora


Y las primeras imuestras de HDR10+ si es cierto que no hay apenas diferencias, pero en las ultimas peliculas que he visto y comparado se nota la diferencia, y me jode por que uso la XBOX como reproductor y no soporta HDR10+, con lo que algunas peliculas que tengo originales me ha tocado bajarlas en remux para poder verlas por HDr10+ por USB

Al margen de todo eso, para mi la diferencia entre HDR10+, HDR10 con Tone Mapping y Dolby Vision son tan sutiles que en el 90% de los casos no te darías cuenta

EN esto si qu eno puedo estar mas que al 10000% de acuerdo, al final te toca muchas veces mirar con lupa y cuando hay diferencias es en muchas ocasiones, y no descarto que sea asi en las que yo lo he notado, por que alguno de los metodos no esta bien implementado


Un saludo
 
Última edición:
Si si, no digo que no se haga frame a frame. Digo que cambia la curva estática frame a frame, que no es lo mismo.

Dolby Vision no cambia la curva, si no que realmente modifica partes de la imagen frame a frame. Más brillo en esta parte, menos en esa, el sol con la curva asá, los reflejos del agua así etc.

HDR10+ lo que haría sería, mediante el fichero citado, indicarle al reproductor que esa escena es mejor que la curva PQ EOTF sea X, porque así se verá mejor que de serie. Pero no puede tocar nada de la imagen en sí ni partes de esta. El HDR10 con Dynamic Tone mapping haría exactamente lo mismo, solo que en lugar de tener un fichero que le diga donde modificar la curva, lo hace automáticamente en función de lo que la CPU considere.

Y luego está EL HDR10 normal, que aplica la misma curva PQ EOTF a toda la peli entera.

Gráficamente sería así:

HDR10 normal --> Misma curva PQ EOTF para toda la película

maxresdefault.jpg


HDR10+ y HDR10 con Dynamic Tone Mapping (iguales, salvo que en el primero tiene un archivo que le indica donde modificar la curva y en el segundo lo decide la CPU "al vuelo") --> La curva PQ EOTF va cambiando escena a escena o frame a frame:

3.jpg


Dolby Vision --> Cada frame es diferente al otro y cada parte de la imagen tiene sus propios nits, masterizado, curva, etc. Cada frame de la película! Una bestialidad. Esta es una foto mía de la capa Dolby Vision de una película, cada color indica unos nits diferentes:

5DghhSH.jpg


Eso hace que en algunas situaciones, DV sea superior a HDR10+ y al HDR10+DTM, en el ejemplo de Tha_Villaman tienes varios frames donde el HDR10+ se ve algo más "lavado" o "aplastado" en algunas escenas, Dolby siempre está donde debe. ¿Por qué? Porque se creó así, mientras que el HDR10+ se crea a posteriori sobre un HDR10 normal, jugando simplemente con la curva...por lo que es imposible que se vea perfecto en algunas situaciones.

De la comparativa de @calibrador , para que veas lo que quiero decir:

DV --> Se ve perfecto, ese frame se masterizó en Dolby y cada parte de la imagen tiene exactamente la curva, nits, color, etc. correctos:

ODFKfo9.jpg


HDR10+ --> Basándose en un frame HDR10 con metadatos estáticos, intenta modificar la curva. ¿Qué ocurre? que si la baja mucho se oscurece demasiado, si la sube mucho, quema los detalles. Al final, como hace LG con el Dynamic Tone Mapping, intenta llegar a un "compromiso", pero se nota más lavada y se ve claramente peor que el mismo frame en Dolby Vision:

7BvhHGZ.jpg


Luego, en la práctica y como comentas, yo diría que un 85-90% son iguales (DV, HDR10+ y HDR10 con DTM), pero en ese otro 15-10% si que Dolby retiene mejor los detalles especulares, altas luces, etc.

Soy de los que cree que es por la limitación tecnológica. Si dentro de 10 años vemos TVs que lleguen a dar 10 mil nits y cobertura BT.2020 del 100% con ausencia de backlight (QNED, MicroLED u OLED) quizá ahí si veamos la mejora de Dolby Vision.

Un saludo.
 
A ver, @Ashtyr , sin pretender soliviantar a alguien...

para aclararle algo a alguien primero deberías saber, y no creo que sepas de lo que hablas. Yo sí. Sin acritud, simplemente estás equivocado y repites ideas erróneas de foros de electrónica de consumo y videos de llutube.

HDR10+ sí que es inferior y mucho a Dolby Visión, no obstante Samsung no tiene ni pajolera idea de teoría,física y aplicación del color y Dolby son MAESTROS. Samsung son unos coreanos que sueldan resistencias y chips en PCBs y desarrollan tecnología de proyección que, mayormente, otros han investigado y creado,y se la compran(como LG hizo con la tecnología OLED que le compraron a Kodak). Dolby investiga, desarrolla e implementa imagen desde antes que ambos nacieramos.

No sabes ni en qué está basado HDR10/HDR10+, ni quién lo inventó, ni quién lo popularizó. Como mucho te habrás leído algún bullet point del white paper de HDR10+ y puede, aunque lo dudo, que el A de la UHD Alliance y habrás confiado mucho en foros y llutube para hacerte una idea parcial.

No sabes quién empezó todo esto? Que es PQ=SMPTE 2084=HDR10, que lleva a SMPTE-2094-40/HDR10+, que es la columna vertebral de TODO el HDR, por no decir de la transferencia de imagen digital moderna? Quién lo inventó y desarrollo? Quién hizo que fuera un estándar de facto antes de que la SMPTE lo adoptara, como y porqué?

PUES FUE DOLBY LABORATORIES!!! :LOL:

Dolby, como ha hecho siempre, estudia, inventa y avanza la imagen y el sonido. Samsung fábrica teles, móviles y lavadoras. Punto. A los hechos me remito:

Presentación PQ anterior a SMPTE-2084

Presentación PQ 2 anterior a SMPTE-2084

Dolby Laboratories investigó, como siempre ha hecho, el color. Antes se masterizaba a través de CRT con consolas y monitores que usaban una función de transferencia diferente. Por qué no sirve en el mundo digital? Leete la primera presentación de la SMPTE.

Así que Dolby se pone a lo suyo y desarrolla PQ, una función de transferencia y cuantización del color. Trata de acercar el espectro transferible desde la cámara a datos (OOTF)y de los datos a la proyección en masterizado y colorización y, finalmente, en salas y televisiones(EOTF), a la percepción absoluta del ojo humano, porque lo anterior no valía ya. La desarrolla en base a un prototipo suyo, el primer prototipo existente donde se usa espacio de color DCI-P3, con alto rango dinámico (HDR) y alto contraste. Con este investiga tanto la creación del color a EOTF como la percepción visual y mil zarandajas más. Punto para Dolby.

En base a sus investigaciones con este y otros prototipos, Dolby saca el Dolby Pulsar PRM-4200 a finales de 2010, primer monitor de colorimetría y masterizado de pantalla plana con transporte digital, alto contraste, espacio de color y rango dinámico, primera cosa que usa PQ, primer producto que transfiere fielmente el color capturado (cámara a datos) a EOTF(datos a proyector). Se convierte en el estándar de facto de la industria de la imagen porque es tan insultantemente bueno y superior a cualquier cosa en ese momento o el pasado que no hay color, nunca mejor dicho jajaja. Todo el mundo o tiene uno o quiere uno. Dolby prácticamente inventa la transmisión y proyección HDR en cine y televisión. Punto para Dolby.

Mientras, el HDR es un Salvaje Oeste de pollos sin cabeza, sin estándares ni na. Unos hacen un HDR, otros otro, otros ninguno, todos engañan a los consumidores y la única honesta es Dolby, ya que usa su propia tecnología, función y algoritmos. La SMPTE invita a Dolby, que veían la necesidad de estandarizar el HDR como algo vital, a presentar PQ ya que estaba pensando en estandarizar el sindios del HDR y UHD a través de la tecnología y algoritmos claramente superior de Dolby, y lo hace.Léase documento 2 de presentación de PQ. Punto para Dolby.

Posteriormente la SMPTE pública el estándar SMPTE-2084 basado en PQ de Dolby, que graciosamente aporta al estándar, basado en un espacio de color, Rec. 2020 dentro de DCI-P3, que es el que Dolby usó para desarrollar PQ. Dolby inventa el UHD HDR, como capturar el color, manejarlo y transferirlo. Usa los algoritmos de transporte de Dolby sobre HDMI y otros interfaces, usa el espacio de color elegido por Dolby para desarrollar PQ, se usa su hardware de masterizado, sus funciones de transferencia. Fácil porque toda la cadena podía usar PQ, ya estaba de facto en gran parte, eran los fabricantes de displays de consumo general que como siempre, tienes que atarles con el lazo de un estándar o hacen lo que les sale del pixel. Punto para Dolby, lease presentación de SMPTE-2084 a continuación.

Presentación SMPTE-2084

Dolby saca Dolby Vision, que es una aplicación superior de la teoría detrás de la creación de PQ EOTF, porque, recordemos, Dolby lleva la tira de tiempo con PQ.

Se crea la UHD Alliance, principalmente fabricantes de electrónica de consumo y sacan HDR10 basado en SMPTE-2086, que no es más que SMPTE-2084 y especificar MaxCC/MaxFALL=metadatos estáticos según las capacidades de la TV/display. Punto para Dolby.

Mientras Dolby sigue a lo suyo con su Dolby Vision.

Un año o dos después, se publica SMPTE-2094, luego conocido como SMPTE-2094-10 a medida que Phillips(-20), Technicolor(-30) y por último Samsung(-40) especifican su saborcico para cambiar dinámicamente la imagen, su color y luminancia. Estándar HDR con metadatos dinámicos. quién es el primero que lo hace, explica a SMPTE y establece los parámetros de lo que debe ser HDR con metadatos dinámicos? Quién es ese SMPTE 2094 que luego pasó a 2094-10? Dolby.

Samsung y Amazon no quieren darle un duro a Dolby por Dolby Vision, vete a saber que pasaría pero intuyo que nada bonico en esa reunión, se alían y a base de mandar al conserje y al becario a la SMPTE se montan un estándar que no está nada mal pero no deja de ser SMPTE-2084 con alguna regla más, llamado HDR10+. El edificio entero sigue siendo PQ, Samsung solo le ha puesto una pegatina pa llamar al cerrajero en el dintel de la puerta. Punto para Dolby.

Entonces con ese saborcico de SMPTE 2094-40 Samsung hace HDR10+, que reitero que no es más que el inventillo del conserje de Samsung, porque las matemáticas se le dan mal al pobre coreano, y como no puede tratar el color, trata la proyección de la imagen en la tele. Modula la luminosidad de la proyección en un muy último paso a partir de SMPTE 2084, no mete mano al color y su transferencia de cámara a datos y de datos a proyector/display simplemente porque conserje no entender ni nunca lo hará. Y esto es porque Samsung se empeñan en la tecnología LED mientras todo el resto de la cadena desde el objetivo de la cámara hasta las teles está usando OLED. Le mete los Quantum Dots de otra compañía, que es un muy buen inventillo intermedio entre LED y OLED para tener color porque si no como cojones va siquiera a acercarse al espacio de color necesario para mostrar HDR en condiciones como si hace OLED. De luminosidad va sobrado. Y no puede hacer Tone Mapping Dinámico frame a frame por una sencilla razón... porque las zonas de atenuación son inferiores a las de la tecnología OLED que son 8 millones y pico, y tienen más latencia las zonas de atenuación LED, entonces por eso lo hace escena a escena, es su inventillo para tener modulación dinámica del brillo, no del color, y proyectar bien. Buena e ingeniosa solución a los problemas inherentes de la tecnología LED aún aplicándoles QD, pero no deja de ser un compromiso. No puede hacer postprocesado frame a frame porque ni la CPU seguramente tenga la potencia necesaria, ni sería bonico ver un espectáculo de color aberrante, donde la imagen va por delante de su color. Samsung y Amazon se alían para extenderlo, no así desarrollarlo.

SMPTE 2094-40

Dolby Vision es superior porque Dolby creó el HDR que hoy día conocemos. Porque prácticamente todo el ecosistema HDR se asienta o bebe de sus investigaciones, teoría, prototipos y productos. Porque proveyó de PQ sobre BT 2020 que viene de DCI-P3 al mundo. Porque el estándar HDR10 se basa en su trabajo. Porque mientras los demás usan PQ a secas en HDR10/HDR10+, Dolby lleva años usando ICtCp sobre PQ, que es una función de transferencia superior a PQ EOTF. Porque manipularon el transporte de datos de HDMI, TMDS, de forma tan ingeniosa que consiguieron meter 12bits de color+metadatos dinámicos en 10bits hasta HDMI 1.4 y al HDMI Forum les molo tanto que lo incluyeron en la especificación. Porque piensa a futuro y prevee displays de más nits. Porque lleva los datos en el frame, y no es, hablando mal, un filtro HDR sobre HDR10 que aplica el display modulando brillo (sobredensionado muchas veces), adaptándolo a la capacidad de nits de la tele. Porque de mapeo de color ni hablamos, ya que Samsung no creo que ponga al pobre conserje a estudiar a ver si mágicamente se le ocurre una función de transferencia y la industria lo acepta, como sí ha hecho con PQ e ICtCp.

Y ahora te digo por qué entre HDR10+ y Dolby Vision en displays de alta gama a veces hay tan poca diferencia. Los coloristas y masterizadores influyen, depende de que trabajo le quieran meter a HDR10/Dolby Vision, si a una, a otra o a ambas. HDR 10+ importa bien poco, porque como he dicho es indicarle al display y ahora súbele el brillo aquí, y ahora bajamelo allí, técnicamente. El meollo de HDR10+ está en HDR10.

Se debe a la tecnología de Display para consumidor, como ha dicho Tocinillo. QLED basado en LED y OLED basado en mismamente. Samsung tiene brillo a espuertas, y usa QD para aumentar el volumen de color y acercarse al color de referencia, pero ay amigo, por un lado del espectro tiene mucho, por otro poco. Por eso escapa al espacio de color, que por otra parte, tiene colores más vivos debido a ese brillo y a ir a locas con el volumen de color. Mete zonas de atenuación porque es la única manera de que QDLED/LED sea dinámico. Es diferente, Mola. Pero ni de coña puede llegar a mostrar frame a frame porque se volvería loca la pantalla así que desarrolla su aportación a la SMPTE-2094-40, que es la base de HDR10+ como una forma de modular el brillo dinámicamente, que por otra parte apoyo totalmente porque no todo puede ser el máximo o si no NADA. Así puedes dotar a teles LED de un mejor HDR, y es abierto. Nada que objetar.

OLED es mucho más preciso al mostrar el color pero le falta brillo, lo puedes meter pero los pixeles OLED se quemarán debido al calor. Como se soluciona ahora? Refrigerando OLED. Prácticamente todos los monitores de masterizado buenos son OLED, tienen un brillo acojonante y una representación de color DCI-P3 que ya quisieramos ver por aquí gracias a su sistema de refrigeración. Panasonic toma nota y saca un panel con refrigeración gorda, no tan gorda como un monitor de masterizado pero oiga, que OLED ya está en los 1000nits. Por eso se ve mejor que cualquier otra. Y a igualdad de nits siempre se verá mejor un OLED/QDOLED/microLED que un QDLED simplemente porque es una tecnología emisiva independiente a nivel pixel sin tanto filtro ni atenuación, con mayor contraste y definición por tener menos capas de proyección y tener un contraste cercano a 0 a infinito entre medias, técnicamente, y menos latencia. Por eso LG se lanzó de cabeza a apoyar Dolby Vision, por el brillo de sus paneles OLED que era un pestiño hasta tiempos recientes comparado con QDLED, y necesitaban sí o sí mapear el color en HDR. Por eso su algoritmo de mapeado dinámico de la tele es tan bueno, porque llevan dándole al martillo del mapeado más tiempo que nadie a excepción de Dolby.

Dolby Vision tiene diferentes perfiles y tu los vas ajustando según parámetros del display hoy y mañana, está preparado a futuro. HDR10+ es actualmente(no así en un futuro cuando usé tecnología emisiva, que podrá usar otros de los specs del white paper de HDR10+) un remedio de Samsung, por otra parte muy bueno, eficiente y abierto, pero inferior a Dolby Vision, para dotar de Tone mapping dinámico a una tecnología finita a la que le quedan 4 telediarios a tenor de sus ansias de cerrar ya LED, ponerse con QDOLED y en un futuro, microLED.
 
Aunque coincido en mucha parte del mensaje y del fondo, no en las formas. No hace falta ese tono ni formas con un compañero.

Al margen que decir que "Samsung son unos coreanos que sueldan chips Y PCBs"....pues hombre...
 
Por mi parte seguir que estoy aprendiendo un huevo....? pero no os enfadéis leñe, que el confinamiento pasa factura y nos ponemos obtusos.

Veremos que HDR soporta la Play 5 o la xbox series x....qué es el único reproductor que me voy a poder permitir....?

Viva el HDR, en todas sus formas!
 
Última edición:
A ver, @Ashtyr , sin pretender soliviantar a alguien...

para aclararle algo a alguien primero deberías saber, y no creo que sepas de lo que hablas. Yo sí. Sin acritud, simplemente estás equivocado y repites ideas erróneas de foros de electrónica de consumo y videos de llutube.

HDR10+ sí que es inferior y mucho a Dolby Visión, no obstante Samsung no tiene ni pajolera idea de teoría,física y aplicación del color y Dolby son MAESTROS. Samsung son unos coreanos que sueldan resistencias y chips en PCBs y desarrollan tecnología de proyección que, mayormente, otros han investigado y creado,y se la compran(como LG hizo con la tecnología OLED que le compraron a Kodak). Dolby investiga, desarrolla e implementa imagen desde antes que ambos nacieramos.

No sabes ni en qué está basado HDR10/HDR10+, ni quién lo inventó, ni quién lo popularizó. Como mucho te habrás leído algún bullet point del white paper de HDR10+ y puede, aunque lo dudo, que el A de la UHD Alliance y habrás confiado mucho en foros y llutube para hacerte una idea parcial.

No sabes quién empezó todo esto? Que es PQ=SMPTE 2084=HDR10, que lleva a SMPTE-2094-40/HDR10+, que es la columna vertebral de TODO el HDR, por no decir de la transferencia de imagen digital moderna? Quién lo inventó y desarrollo? Quién hizo que fuera un estándar de facto antes de que la SMPTE lo adoptara, como y porqué?

PUES FUE DOLBY LABORATORIES!!! :LOL:

Dolby, como ha hecho siempre, estudia, inventa y avanza la imagen y el sonido. Samsung fábrica teles, móviles y lavadoras. Punto. A los hechos me remito:

Presentación PQ anterior a SMPTE-2084

Presentación PQ 2 anterior a SMPTE-2084

Dolby Laboratories investigó, como siempre ha hecho, el color. Antes se masterizaba a través de CRT con consolas y monitores que usaban una función de transferencia diferente. Por qué no sirve en el mundo digital? Leete la primera presentación de la SMPTE.

Así que Dolby se pone a lo suyo y desarrolla PQ, una función de transferencia y cuantización del color. Trata de acercar el espectro transferible desde la cámara a datos (OOTF)y de los datos a la proyección en masterizado y colorización y, finalmente, en salas y televisiones(EOTF), a la percepción absoluta del ojo humano, porque lo anterior no valía ya. La desarrolla en base a un prototipo suyo, el primer prototipo existente donde se usa espacio de color DCI-P3, con alto rango dinámico (HDR) y alto contraste. Con este investiga tanto la creación del color a EOTF como la percepción visual y mil zarandajas más. Punto para Dolby.

En base a sus investigaciones con este y otros prototipos, Dolby saca el Dolby Pulsar PRM-4200 a finales de 2010, primer monitor de colorimetría y masterizado de pantalla plana con transporte digital, alto contraste, espacio de color y rango dinámico, primera cosa que usa PQ, primer producto que transfiere fielmente el color capturado (cámara a datos) a EOTF(datos a proyector). Se convierte en el estándar de facto de la industria de la imagen porque es tan insultantemente bueno y superior a cualquier cosa en ese momento o el pasado que no hay color, nunca mejor dicho jajaja. Todo el mundo o tiene uno o quiere uno. Dolby prácticamente inventa la transmisión y proyección HDR en cine y televisión. Punto para Dolby.

Mientras, el HDR es un Salvaje Oeste de pollos sin cabeza, sin estándares ni na. Unos hacen un HDR, otros otro, otros ninguno, todos engañan a los consumidores y la única honesta es Dolby, ya que usa su propia tecnología, función y algoritmos. La SMPTE invita a Dolby, que veían la necesidad de estandarizar el HDR como algo vital, a presentar PQ ya que estaba pensando en estandarizar el sindios del HDR y UHD a través de la tecnología y algoritmos claramente superior de Dolby, y lo hace.Léase documento 2 de presentación de PQ. Punto para Dolby.

Posteriormente la SMPTE pública el estándar SMPTE-2084 basado en PQ de Dolby, que graciosamente aporta al estándar, basado en un espacio de color, Rec. 2020 dentro de DCI-P3, que es el que Dolby usó para desarrollar PQ. Dolby inventa el UHD HDR, como capturar el color, manejarlo y transferirlo. Usa los algoritmos de transporte de Dolby sobre HDMI y otros interfaces, usa el espacio de color elegido por Dolby para desarrollar PQ, se usa su hardware de masterizado, sus funciones de transferencia. Fácil porque toda la cadena podía usar PQ, ya estaba de facto en gran parte, eran los fabricantes de displays de consumo general que como siempre, tienes que atarles con el lazo de un estándar o hacen lo que les sale del pixel. Punto para Dolby, lease presentación de SMPTE-2084 a continuación.

Presentación SMPTE-2084

Dolby saca Dolby Vision, que es una aplicación superior de la teoría detrás de la creación de PQ EOTF, porque, recordemos, Dolby lleva la tira de tiempo con PQ.

Se crea la UHD Alliance, principalmente fabricantes de electrónica de consumo y sacan HDR10 basado en SMPTE-2086, que no es más que SMPTE-2084 y especificar MaxCC/MaxFALL=metadatos estáticos según las capacidades de la TV/display. Punto para Dolby.

Mientras Dolby sigue a lo suyo con su Dolby Vision.

Un año o dos después, se publica SMPTE-2094, luego conocido como SMPTE-2094-10 a medida que Phillips(-20), Technicolor(-30) y por último Samsung(-40) especifican su saborcico para cambiar dinámicamente la imagen, su color y luminancia. Estándar HDR con metadatos dinámicos. quién es el primero que lo hace, explica a SMPTE y establece los parámetros de lo que debe ser HDR con metadatos dinámicos? Quién es ese SMPTE 2094 que luego pasó a 2094-10? Dolby.

Samsung y Amazon no quieren darle un duro a Dolby por Dolby Vision, vete a saber que pasaría pero intuyo que nada bonico en esa reunión, se alían y a base de mandar al conserje y al becario a la SMPTE se montan un estándar que no está nada mal pero no deja de ser SMPTE-2084 con alguna regla más, llamado HDR10+. El edificio entero sigue siendo PQ, Samsung solo le ha puesto una pegatina pa llamar al cerrajero en el dintel de la puerta. Punto para Dolby.

Entonces con ese saborcico de SMPTE 2094-40 Samsung hace HDR10+, que reitero que no es más que el inventillo del conserje de Samsung, porque las matemáticas se le dan mal al pobre coreano, y como no puede tratar el color, trata la proyección de la imagen en la tele. Modula la luminosidad de la proyección en un muy último paso a partir de SMPTE 2084, no mete mano al color y su transferencia de cámara a datos y de datos a proyector/display simplemente porque conserje no entender ni nunca lo hará. Y esto es porque Samsung se empeñan en la tecnología LED mientras todo el resto de la cadena desde el objetivo de la cámara hasta las teles está usando OLED. Le mete los Quantum Dots de otra compañía, que es un muy buen inventillo intermedio entre LED y OLED para tener color porque si no como cojones va siquiera a acercarse al espacio de color necesario para mostrar HDR en condiciones como si hace OLED. De luminosidad va sobrado. Y no puede hacer Tone Mapping Dinámico frame a frame por una sencilla razón... porque las zonas de atenuación son inferiores a las de la tecnología OLED que son 8 millones y pico, y tienen más latencia las zonas de atenuación LED, entonces por eso lo hace escena a escena, es su inventillo para tener modulación dinámica del brillo, no del color, y proyectar bien. Buena e ingeniosa solución a los problemas inherentes de la tecnología LED aún aplicándoles QD, pero no deja de ser un compromiso. No puede hacer postprocesado frame a frame porque ni la CPU seguramente tenga la potencia necesaria, ni sería bonico ver un espectáculo de color aberrante, donde la imagen va por delante de su color. Samsung y Amazon se alían para extenderlo, no así desarrollarlo.

SMPTE 2094-40

Dolby Vision es superior porque Dolby creó el HDR que hoy día conocemos. Porque prácticamente todo el ecosistema HDR se asienta o bebe de sus investigaciones, teoría, prototipos y productos. Porque proveyó de PQ sobre BT 2020 que viene de DCI-P3 al mundo. Porque el estándar HDR10 se basa en su trabajo. Porque mientras los demás usan PQ a secas en HDR10/HDR10+, Dolby lleva años usando ICtCp sobre PQ, que es una función de transferencia superior a PQ EOTF. Porque manipularon el transporte de datos de HDMI, TMDS, de forma tan ingeniosa que consiguieron meter 12bits de color+metadatos dinámicos en 10bits hasta HDMI 1.4 y al HDMI Forum les molo tanto que lo incluyeron en la especificación. Porque piensa a futuro y prevee displays de más nits. Porque lleva los datos en el frame, y no es, hablando mal, un filtro HDR sobre HDR10 que aplica el display modulando brillo (sobredensionado muchas veces), adaptándolo a la capacidad de nits de la tele. Porque de mapeo de color ni hablamos, ya que Samsung no creo que ponga al pobre conserje a estudiar a ver si mágicamente se le ocurre una función de transferencia y la industria lo acepta, como sí ha hecho con PQ e ICtCp.

Y ahora te digo por qué entre HDR10+ y Dolby Vision en displays de alta gama a veces hay tan poca diferencia. Los coloristas y masterizadores influyen, depende de que trabajo le quieran meter a HDR10/Dolby Vision, si a una, a otra o a ambas. HDR 10+ importa bien poco, porque como he dicho es indicarle al display y ahora súbele el brillo aquí, y ahora bajamelo allí, técnicamente. El meollo de HDR10+ está en HDR10.

Se debe a la tecnología de Display para consumidor, como ha dicho Tocinillo. QLED basado en LED y OLED basado en mismamente. Samsung tiene brillo a espuertas, y usa QD para aumentar el volumen de color y acercarse al color de referencia, pero ay amigo, por un lado del espectro tiene mucho, por otro poco. Por eso escapa al espacio de color, que por otra parte, tiene colores más vivos debido a ese brillo y a ir a locas con el volumen de color. Mete zonas de atenuación porque es la única manera de que QDLED/LED sea dinámico. Es diferente, Mola. Pero ni de coña puede llegar a mostrar frame a frame porque se volvería loca la pantalla así que desarrolla su aportación a la SMPTE-2094-40, que es la base de HDR10+ como una forma de modular el brillo dinámicamente, que por otra parte apoyo totalmente porque no todo puede ser el máximo o si no NADA. Así puedes dotar a teles LED de un mejor HDR, y es abierto. Nada que objetar.

OLED es mucho más preciso al mostrar el color pero le falta brillo, lo puedes meter pero los pixeles OLED se quemarán debido al calor. Como se soluciona ahora? Refrigerando OLED. Prácticamente todos los monitores de masterizado buenos son OLED, tienen un brillo acojonante y una representación de color DCI-P3 que ya quisieramos ver por aquí gracias a su sistema de refrigeración. Panasonic toma nota y saca un panel con refrigeración gorda, no tan gorda como un monitor de masterizado pero oiga, que OLED ya está en los 1000nits. Por eso se ve mejor que cualquier otra. Y a igualdad de nits siempre se verá mejor un OLED/QDOLED/microLED que un QDLED simplemente porque es una tecnología emisiva independiente a nivel pixel sin tanto filtro ni atenuación, con mayor contraste y definición por tener menos capas de proyección y tener un contraste cercano a 0 a infinito entre medias, técnicamente, y menos latencia. Por eso LG se lanzó de cabeza a apoyar Dolby Vision, por el brillo de sus paneles OLED que era un pestiño hasta tiempos recientes comparado con QDLED, y necesitaban sí o sí mapear el color en HDR. Por eso su algoritmo de mapeado dinámico de la tele es tan bueno, porque llevan dándole al martillo del mapeado más tiempo que nadie a excepción de Dolby.

Dolby Vision tiene diferentes perfiles y tu los vas ajustando según parámetros del display hoy y mañana, está preparado a futuro. HDR10+ es actualmente(no así en un futuro cuando usé tecnología emisiva, que podrá usar otros de los specs del white paper de HDR10+) un remedio de Samsung, por otra parte muy bueno, eficiente y abierto, pero inferior a Dolby Vision, para dotar de Tone mapping dinámico a una tecnología finita a la que le quedan 4 telediarios a tenor de sus ansias de cerrar ya LED, ponerse con QDOLED y en un futuro, microLED.


y quien ha negado que DV sea superior?, yo no he dicho eso, los numeros son claros DV es superior pero me reitero esa superioridad se ve muy mermada por la tecnologia actual.

Luego , decir que Samsung son dos coreanos que sueldan resistencias, creia que estaba hablando con gente seria, creia.

HDR10+ no lo saco Amazon y Samsung, ya te lo he puesto antes 20th Century FOX, PANASONIC y SAMSUNG , que amazon lo apoyara despues , como hizo Phiilips, o la Warner no significa que fueran ellos los que lo propulsaron, pero supongo que estos tampoco sabran una mierda de imagen, me recuerdas por las formas de hablar al tipico fanboy de consolas la virgen.

https://www.businesswire.com/news/h...R10-Technologies-LLC-Founded-20th-Century-Fox


Por cierto se aunque por lo visto no tan bien como tu, como funciona el HDR y algo menos el HDR10+ pero si te ves esto

HDR10+ Metadata may be created during the post-production, mastering process or during transcoding/encoding

Por esto mismo dije que depende lo bien implementado que este el HDR10+, o si lo prefieres debi usar metodo usado, sera de mas o menor calidad, mientras que el DV se ve mas afectado por la calidad del aparato donde lo visiones, ah y claro evidentemte en DV pondran a un experto y en HDR10+ al de los cafes para hacerlo, por supuesto.

E iba a dejar el tema por que estamos con un offtopic del quince y realmente no me apetecia , o abrir un hilo y poder habalr seriamente sobre esto, por que soy una persona que le encanta aprender, pero es que la gente con formas como la tuya me asquea.

Y por cierto de youtube no aprendi no, aprendi estudiando cosas como esta

http://weber.itn.liu.se/~jonun48/web/papers/2017/2017-EG/star.pdf

Y podria poner mas como puse aqui en otro hilo lo que era el HGIG cuando no sabian lo que era y estaban divagando.

Y no, no lo se todo de hecho seguramente no sepa casi nada, por eso pregunto en un foro y expongo opiniones, y lo unico que espero es que si me equivoco se me hable con respeto, y oye si no lo pillo a la primera pues agradeceria una segunda oportunidad.

Espero que al menos de este post saques ya en claro quien Fundo HDR10+ por un lado y de paso tengas un poco mas de paciencia con la gente que no es tan lista como tu.

HDR10+ --> Basándose en un frame HDR10 con metadatos estáticos, intenta modificar la curva. ¿Qué ocurre? que si la baja mucho se oscurece demasiado, si la sube mucho, quema los detalles. Al final, como hace LG con el Dynamic Tone Mapping, intenta llegar a un "compromiso", pero se nota más lavada y se ve claramente peor que el mismo frame en Dolby Vision:

Tocinillo esa imagen primera es de HDR10PRO de LG que no deja de ser el mismo tone mapping dinamico que mete Samsung con otro nombre, que evidentemente se hace como dices.

Luego en la comparativa hay veces que se ve mejor uno y a veces otro.

Y sobre la cita en concreto si ves esto

KtrwFhV.jpg




Los metadatos se generan antes que la codificacion a HDR10 por lo que no veo como puede usar frames codificados con HDR10 y generar metadatos a partir de ello, cuando de hecho es al reves.

Luego se genera el HDR10 y se unen porque ambos sistemas con compatibles si tu TV no soporta HDR10+ usara el estatico del HDR10.

Pero dejo el tema aqui, no es el hilo para ello.


Un saludo.
 
No pasa nada por offtopiquear un poco, siempre con respeto, no te preocupes ?

Si yo estoy de acuerdo en los resultados, soy el primero que lo dice (y lo dije allá por 2016), DV y HDR10 con DTM se ven muy muy parecidos, tanto que muchas veces son indistinguibles. De hecho Teoh por ejemplo en su review de la AG9 prefiere el HDR10 normal con el tone mapping que la versión de Dolby implementada por Sony.

Sobre la foto que me has pasado, te esta diciendo exactamente lo mismo que te decía yo. De hecho hace tiempo que leí ese paper oficial (https://hdr10plus.org/wp-content/uploads/2019/08/HDR10_WhitePaper.pdf&ved=2ahUKEwionfi2sM7oAhVCXxoKHbQXBYwQFjAAegQIBRAB&usg=AOvVaw2l_ll9lJtK58MN1ovAn_SA). Cito:

HDR10+ is designed to utilize an HDR10 master file and fits within existing HDR post-
production
and distribution workflows.
The HDR10+ ecosystem is used within current systems by
• storing HDR10+ metadata in JSON files
• embedding HDR10+ metadata into HDR10 content
• distributing through any digital stream (e.g. streaming/OTT is HDR10+ SEI)
• displaying the HDR10+ content on a capable display (e.g. HDMI interfaces is
through HDR10+ VSIF)
• also displaying on mobile devices

También lo indican aquí, del mismo paper:

HDR10+ displays will process the video, frame by frame, with HDR10+ metadata to apply
the best tone mapping for the content on the device
. An example diagram is shown in

La idea es buena, pero no deja de ser un simple archivo que va "guiando" al reproductor en qué tone mapping aplicar en según qué escenas o frames de la película. LG hace lo mismo con el Dynamic Tone mapping, solo que en lugar de tener un archivo lo decide la CPU. De ahí que cuando le preguntan a LG dicen que no les interesa poner HDR10+ porque su sistema es prácticamente igual. Y la verdad es que razón no les falta.

Eso es lo que yo he intentado explicar en los otros posts. Es como un HDR10 "vitaminado" (de ahí su nombre). Dolby funciona completamente diferente. No es un "fichero que se añade al masterizado HDR10 y le indica al reproductor donde cambiar la curva PQ EOTF", si no que se masteriza específicamente en los laboratorios Dolby, tiene sus propios protocolos, sus propios chips, todo pasa por Dolby, librerías propietarias, etc.

Todo eso tiene su parte buena (mayor calidad o al menos en teoría, metadatos dinámicos frame a frame reales y no un cambio de curva frame a frame, mayor estandarizacion, exigen un modo de imagen calibrado, admite hasta 10.000 nits, parten de un transfer a 12 bits, etc) y su parte mala: si Dolby no da el visto bueno no puedes reproducirlo, hardware cerrado, librería de pago, solo los reproductores que ellos certifican pueden reproducir los discos, el rollo del doble capa vs capa única, etc.

Al final y con las TV actuales, todo esto se queda en el campo teórico, ya que como he repetido varias veces y salvo escenas muy complicadas, se ven prácticamente igual de bien el HDR10 normal con un mapeador de tonos (tenéis el ejemplo en el fantástico HDR Optimizer de Panasonic), el HDR10+ y el Dolby Vision.

PD: No, las fotos que puse son de una GZ950 con un reproductor Panasonic y el disco de Spears&Munsil V2 con la misma escena en Dolby Vision y en HDR10+.

Un saludo!
 
Espero que estéis todos bien con esta situación!!
Vaya clase de hdr nos habéis dado!! Muchisimas gracias a todos por las aportaciones!!
Yo adquirí el año pasado una c9 de 55 pulgadas, os dejo unas preguntas más banales de una persona con menos conocimientos...
Estuve siguiendo el foro el año pasado de la serie 9 pero me fui desconectando y cuando he vuelto a entrar había 230 hojas... la verdad que no me imaginaba que tirase tanto un foro de TVs!! Las preguntas son las siguientes:
- Mi intención es comprarme la ps5, entiendo que al ir con amd el gsync no hará de sincronizador... por tanto es necesario el freesync para tener esa ventaja... he visto más arriba que algunos de vosotros creíais que lo implementaran por software!! Por un lado estamos hablando de teles de gama alta que deberían actualizar pero por otro están perdiendo mercado... dudo que lo hagan no?
- si son capaces de esas actualizaciones seria posible que nos anularán el dts para de ese modo igualarla a la nueva y no perder mercado?
- Esta pregunta va mas para tocinillo. Tengo mi tele con los parámetros que diste al inicio! Crees que siguen siendo correctos o has actualizado algo para mejorarlos?
- Y la más banal de todas pero diría que la más importante... tengo el panel con polvo pero me da un miedo terrible limpiarlo porque lei por aquí que se hace con un paño muy poco húmedo... y así lo he hecho en algunos lados y se me han quedado verretes!! Como limpiais vosotros los paneles?

Muchimas gracias!!!
Un saludo!!
 
Espero que estéis todos bien con esta situación!!
Vaya clase de hdr nos habéis dado!! Muchisimas gracias a todos por las aportaciones!!
Yo adquirí el año pasado una c9 de 55 pulgadas, os dejo unas preguntas más banales de una persona con menos conocimientos...
Estuve siguiendo el foro el año pasado de la serie 9 pero me fui desconectando y cuando he vuelto a entrar había 230 hojas... la verdad que no me imaginaba que tirase tanto un foro de TVs!! Las preguntas son las siguientes:
- Mi intención es comprarme la ps5, entiendo que al ir con amd el gsync no hará de sincronizador... por tanto es necesario el freesync para tener esa ventaja... he visto más arriba que algunos de vosotros creíais que lo implementaran por software!! Por un lado estamos hablando de teles de gama alta que deberían actualizar pero por otro están perdiendo mercado... dudo que lo hagan no?
- si son capaces de esas actualizaciones seria posible que nos anularán el dts para de ese modo igualarla a la nueva y no perder mercado?
- Esta pregunta va mas para tocinillo. Tengo mi tele con los parámetros que diste al inicio! Crees que siguen siendo correctos o has actualizado algo para mejorarlos?
- Y la más banal de todas pero diría que la más importante... tengo el panel con polvo pero me da un miedo terrible limpiarlo porque lei por aquí que se hace con un paño muy poco húmedo... y así lo he hecho en algunos lados y se me han quedado verretes!! Como limpiais vosotros los paneles?

Muchimas gracias!!!
Un saludo!!

Con un plumero mantenimiento no diario pero como veas suficiente. Y si tienes manchas en mercadona hay un spray tvs eso a un paño especial que tambien tienen alli o de optica un par de sprays al paño y queda la tv como nueva

Lo de freesync en la pagina oficial de lg cx pone que va a actualizarse que no esta de salida. Las anteriores lg oled pues no esta confirmado

Y lo dts como no trabajes en lg pues nadie te va a decir seguro la respuesta
 
Atrás
Arriba