Original von Terminator
Original von .ram
naja, kommt drauf an - imo 720p > 1080i - ganz einfach weil 1080i - wie das "i" andeutet, für interlased steht, also nur jede zweite zeile bietet bildpunkte - dadurch ist das 1080i format nix weiter als 540p X2.
ich würde immer eher zu 720p greifen, als 1080i nutzen. ist halt eine frage der bildqualität, die imo schon unter dem interlaced leidet.
Hey, das hatten wir doch schon mal - und da hast Du auch schon diese Antwort gegeben, die so nun doch nicht ganz den Gegebenheiten entspricht!
Es ist natürlich völlig korrekt, daß das "i" für "interlaced" steht. Allerdings ist es nun nicht ganz korrekt, wenn Du nun sagst, daß nur jede zweite Zeil Bildpunkte bieten würde und daß das automatisch eine Frage der Bildqualität sei.
Wir reden ja hier nicht mit von einer Kathodenstrahl-Röhre sondern von einem LCD oder Plasma-Display. Beide Techniken "bieten" das Interlacing per se schon mal nicht, weil diese Bildschirme nur Vollbilder darstellen. Daher werden Interlace-Quellen von den in den Displays eingebauten DeInterlacern zu einem Vollbild umgerechnet, d. h. die Bildinformationen werden ergänzt.
Und das ist dann eine Frage des eingebauten DeInterlacer-Chips, ob ich nun wirklich Qualitätseinbußen im Vergleich zu 720p habe oder ob man mit einem sehr guten DeInterlacer nicht verdammt dicht an 1080
p dran ist. Denn Flimmern wird das Bild aufgrund des verwandeten Displays und der Umrechnung auf Vollbilder in beiden Fällen nicht. Es kann nur sein, daß bei einem schlechten DeInterlacer das Bild pixeliger, unruhiger, "unrunder" wird.
Planet:
Interlace-Flimmern ist tatsächlich technisch gar nicht mehr möglich. Allerdings gibt es noch eine zweite "nette" Art von Flimmern, die man auch mal durchaus mit Interlace-Flimmern verwechseln kann: Texturflimmern - und das geht auch durchaus wunderbar auf Flachdisplays.