Ríos de tinta virtual recorren internet sobre por qué los televisores de hoy en día solo traen una tarjeta de red limitada a megabit (100 Mbps) y nadie sabe a ciencia cierta por qué, pero si podemos teorizar sobre por qué las principales marcas de televisores siguen ancladas a un estándar que se creó en 1995 (más de tres décadas atrás). Y creemos que hay varios motivos.
Antes de que alguien salte con un «pues para eso usa Wifi, que tiene mucha más velocidad«…sobre ello no trata este artículo, ya que el Wifi tiene sus propios problemas que nunca veremos en una red cableada, así que no es un sustituto natural del cable, más bien un alternativa o una opción si cumplimos todos los requisitos de la infraestructura inalámbrica.
Por qué los fabricantes de televisores siguen empeñados en usar tomas de red de hace 3 décadas

Mucho se ha escrito sobre el insólito hecho de que ni una sola marca del mercado tenga puertos de red gigabit. La diferencia principal entre puertos es enorme, ya que el viejo protocolo megabit (o 10/100) data del año 1995 y su máxima capacidad teórica de traspaso de datos es de 100 Mbps (o unos 10 MB/s, redondeando). El protocolo gigabit (o 10/100/1000) supone un aumento de 10 veces la velocidad alcanzando cifras de traspaso de 1000 Mbps o 100 MB/s, un avance enorme.
Muchos creeréis que no es necesario tanto aumento de caudal de datos, pero lo cierto es que si lo es. Si usamos archivos pesados o servicios como Plex o Kodi, con archivos locales, el caudal de datos puede (y lo hace, de hecho) saturar el puerto de red y eso se traduce en cortes y pausas en la reproducción. Incluso nos puede bloquear la reproducción.
Aunque un archivo UHD no llega a los 100 Mbps (se queda sobre los 50-60 Mbps en los picos más altos), a ello hay que sumarle el buffer, una especie de pre-reproducción de seguridad que el reproductor descarga para que siempre vaya fluido y sin cortes. Si sumamos ese buffer al ancho total…en escenas complicadas tendremos cortes con una toma de red 10/100. Y la alternativa es usar el Wifi.
El Wifi no siempre es una alternativa fiable: cobertura y alcance
Los fabricantes han optado finalmente por usar conexiones inalámbricas en sus televisores, en lugar de optar por poner una toma de red gigabit en sus modelos más punteros, algo que a nuestro juicio se debe a varios factores:
- Evitar facilitar la piratería al usar tomas gigabit, donde las apps integradas en algunos sistemas (especialmente los más abiertos como Google TV) le sacarían mucho potencial con un NAS en red.
- Evitar fallos y/o más retrasos a la hora de programar drivers específicos para el hardware.
Aún así, las conexiones Wifi más punteras tienen velocidades de infarto, igualando o incluso superando lo que ofrece un buen cable con capacidad 10/100/1000. Sus problemas vienen por otros derroteros, como por ejemplo la lejanía respecto al router o punto de acceso, el hecho de que existan paredes o muros gruesos que perjudican mucho la cobertura, o incluso problemas como la seguridad o que nuestro router acepte los protocolos más modernos.
Por todo eso, donde esté una buena instalación con cable en toda la casa, que se quite todo lo demás. El problema es que si los televisores siguen solo con puertos de red limitados, no podremos sacarles partido. La respuesta a la pregunta que me hago en este artículo es puramente especulativa…pero creo que la respuesta más firme que puedo daros es que no usan tomas de red gigabit y si una toma de hace 30 años, por temas de piratería. ¿Qué pensais vosotros? os leo en comentarios.