Vamos a ver... 1080p es progresivo quiere decir que en cada refresco (hz) se muestran todas las lineas verticales y horizontales (pixeles), con lo cual 50hz son 50fps. Mientras el 1080i es mas parecido a la tv de toda la vida, quiere decir entrelazado y en cada refresco se pintan solo la mitad de la lineas verticales, en el primer hz las pares, luego las impares, luego las pares, etc Con lo cual 50hz son 25FPS.
La 1080i no tareis en los cambios burcos de oscuro a claro como una intermedia donde se mantienen la mitad de ls lineas blancas y la mitad de las negras, mientras en 1080p eso no se nota pq se repitan todas las lineas.
La tv de toda la vida era 480i, la red electrica es de 50hz por eso con la i se pintana 25FPS y la tv de toda la vida tiene 25FPS, el cine creo que 30FPS.
Por otro lado 1080p tiene casi el doble de pixeles que 1080i, un 720p tiene unos pocos menos pixeles que un 1080i. Personalmente prefiero un 720p que un 1080i. Normalmente los tv HD ready aceptan 720p y 1080i. Pero para un 1080p hay que poner casi el doble de pixeles y por ello son mucho mas caros, y son los conocidos como full hd. Aqui cuento los pixeles de cada television:
1080p - 1080x1920/1= 2.073.600pixeles
1080i - 1080x1920/2= 1.036.800pixeles
720p - 1280x720/1= 921.600pixeles
(No de dividirlo entre 1 o 2 es si pintan todas las lineas en cada refresco o utilizan dos refrescos para pintar todas las lineas)
Por eso un panel HD ready (compatible con 720p o con 1080i) es mas barato que un Full Hd (1080p). Dentro de poco veremos paneles 4k (lg ya vende tv 4k por 700€) los 4k tb los hya tipo p o tipo i. Los full hd de resolucion 1920x1080 se llaman 2k, un 4k tiene el doble de lineas verticales y horizontales con lo cual un 4k es una 3840x2160 y si es tipo p tendra: 3840x2160%1=8.294.400 de pixeles por ello son muchisimo mas caras.
Pues eso depende del tipo de emision, de deco y de tv tendrá mas o menos calidad. La calidad siempre es la menor de todos los involucrados (emision, deco y tv). Si una emision y la tv es 1080p y el deco el 720p la emision que veremos es 720p. Lo mismo pasa con los FPS (fotogramas por segundo) cuantos mas mejor, y la calidad que vemos es siempre la menor de las que entran en juego.
Luego por otro lado nos influye mucho la emision que recibimos, pues donde no hay no se puede sacar!!!
Por ejemplo canal + 1 hd, emite en 1920x1080 25Hz codificado en h264 con un bit rae max de 13Mbps y con sonido en AC3 de dos canales a 48khz. Vamos quiero decir, que asi a ojo creo que la emision es un 1080p de 25hz 25fps. El bit rae de video hace que la pelicula ocupe mas, pero cuanto mas ocupa, mas bitrae y mas calidad. Si poneis emision de italia en hd puede que las veis mejor y es que ellos a veces utilizan bitrae de hasta 20Mbps. Cuanto mas bit rate mejor imagen, pero la tv es un streaming con lo cual cuanta mas calidad,mas bitrate y mas ancho de banda de transmision necesita.
Esto en la tv a lo mejor no se entiende, pero al fin y al cabo es como si teneis 3mbps de internet y quereis ver un streaming de 4mbps pues no podeis, se os vera a tirones etc por que no teneis un ancho de banda suficiente, pues lo mismo con el transpondedor del satelite, si un transpondedor tiene una emsion max de 40Mbps y queremos meter 4 canales o son de menos de 10Mbps cada uno o no se puede emitir. Las compoñias pagan or los transpondedores y cuantos mas canales meten en cada uno pues menos tienen que alquilar, por eso cuanto menos calidad den pues mas barato les sale... :-)
En conclusion, cuanta max resolucion tenga la emison,la tv y el deco mejor! (Ojo los cables tienen que llegar a estas resoluciones tb!!!) Cuantos mas hz y fps tb mejor! cuanto mas bit rate mejor!! etc etc etc
Todo esto asi d memoria espero no aberme ekivoacdo, y perdon por la chapa