100 Hz - 200 Hz ?

  • Hi Leute,
    ich wollte mal fragen ob hier schon jemand Erfahrungen hat mit dem TV von Sony mit den 200 Hz.
    Hat man früher nicht immer gesagt 100 Hz wären flimmerfrei ? was bringen dann 200 Hz? Sieht man da überhaupt noch ein unterschied oder is das alles ne verarsche?


    sagt mal eure meinung

  • Bei LCD TVs gehts nicht um Flimmerfreiheit, das sind sie auch schon mit 50/60Hz. Anders als die früheren Röhrengeräte.


    Es geht um Minimierung der LCD typischen Bewegungsunschärfe.


    Grundsätzlich sind u. a. 100/200Hz dafür geeignet, wobei ich von Sonys 200Hz nicht ganz so angetan bin, wie die Werbung das anpreist.


    Wenn überhaupt, habe ich nur minimale Unterschiede zu guten 100Hz Umsetzungen gesehen, aber keinesfalls doppelte Leistung, wie man Zahlentechnisch vermuten könnte.


    Bigtower

  • Bei der Technik werden nur aus den vom Signal vorgegebenen Bilder Zwischenframes berechnet, was über eine komplexe Elektronik mit Bildprozessor geschieht. Diese künstlichen Zusatzbilder werden dann in die Wiedergabe eingefügt, sodass das dargestellte TV-Programm z.B. keine 50fps mehr hat, sondern 100 oder eben 200fps. Dadurch sehen Bewegungen flüssiger aus als vorher, aber die Technik spaltet die Gemüter. Manche finden das Feature toll und wollen keinen TV ohne die Technik mehr, andere kann man damit verjagen. Denn auch wenn es erstmal gut klingt, hat es auch (je nach Geschmack) gravierende Nachteile. Der Bildeindruck vom klassischen TV-Programm geht vollkommen verloren. Man hat sich einfach jahrzehnte an 25 oder maximal 50 Bilder pro Sekunde gewöhnt, jetzt auf einmal mit deutlich mehr konfrontiert zu werden, sieht äußerst merkwürdig aus. 50fps kennt man z.B. aus Soap-Operas und anderem TV-Inhalt der interlaced produziert wird. Spielfilme sind dagegen progressiv in 25fps augezeichnet. Das hat zur Folge, dass Spielfilme mit 100/200Hz einen Soap-Opera Look haben. Außerdem sei angemerkt, dass die durch die von der Elektronik berechneten Zwischenbilder nur eine Approximation dessen ist, was wirklich zu sehen sein müsste. Daher wirken die Bilder auch etwas unpräziser, leicht verwaschen, als ob jemand eine verschmierte Glasscheibe vor den TV hält. Aber wie gesagt, so manchen stört das überhaupt nicht oder er merkt es gar nicht. Daher sollte man sich selbst einen Eindruck davon schaffen.

  • Ich habe in einem Artikel gelesen, dass gerade am Computer bearbeitete Action-Szenen durch die 200Hz schneller auffallen sollen. Jemand beschrieb dies mal als wenn Ojekte vor dem Hintergrund schweben würden. Gesehen habe ich das selbst allerdings noch nicht.

  • das ewige HZ-Problem beschäftigt mich auch schon seit Jahren... die Sony-Werbung ist mir auch aufgefallen und habe mich gefragt, ob das wirklich was Neues ist. Mich würde jetzt interessieren, was passiert, wenn ich einen PC an den 200HZ-TV anschließe und diesem Bilder mit 200fps schicke, ob diese auch wirklich zu sehen sind. Wenn ich die vorangehenden Posts richtig verstehe, würden auch "nur" 100fps zu sehen sein, da es sich um 200 Halbbilder in der Sekunde handelt, korrekt?

  • Quote

    Mich würde jetzt interessieren, was passiert, wenn ich einen PC an den 200HZ-TV anschließe und diesem Bilder mit 200fps schicke


    Du kannst das Gerät extern nur mit den üblichen Frequenzen ansteuern (i.d.R. 24/50/60Hz). Die Zwichenbildberechnung ist eine rein interne Geschichte. Auch haben die erreichten Zielfrequenzen nicht zwangsläufig etwas mit den Angaben zu tun (u.a. verfügen die besseren Implementierungen ja alle über ein gewisse Granularität).


    Quote

    würden auch "nur" 100fps zu sehen sein, da es sich um 200 Halbbilder in der Sekunde handelt, korrekt?


    Das hat nichts mit Halb- oder Vollbildern zu tun. Die Zwischenbildberechnung wird letztlich auf Framebasis erfolgen.


    Quote

    Jemand beschrieb dies mal als wenn Ojekte vor dem Hintergrund schweben würden. Gesehen habe ich das selbst allerdings noch nicht.


    Das ist der typische Videolook. Der ist bei aggressiven Einstellungen immer noch problematisch. In niedriger Stufe vermeiden vernünftige Algorithmen heute dieses Problem.


    Quote

    Spielfilme sind dagegen progressiv in 25fps augezeichnet.


    Wenn du um 1 fps auf 24 fps runtergehst, bin ich einverstanden ;-). Bei uns kommt dann eben noch der PAL-Speedup dazu, bevor auf 50 Fields/s segmentiert wird.


    Gruß


    Denis

  • Was für ein "Problem" denn?


    Bei Plasmas muss man unterscheiden. Das sind keine Hold-Type Displays wie LCDs, sondern sie zünden mit einer bestimmten Bildfrequenz. Das heißt, ein Plasma kann theoretisch auch flackern. Deshalb haben fast alle Geräte ein Feature, dass 100Hz Double Scan heißt und ungefähr den 100Hz bei Röhrengeräten entspricht. Zusätzlich haben aber modernere Plasmas auch eine DNM Schaltung, die wiederum den 100Hz bei LCDs entspricht. Das heißt dann bei Panasonic z.B. Intelligent Frame Creation, kurz IFC, und macht im Prinzip genau dasselbe, also künstliche Zwischenbilder berechnen und einfügen.

  • Huhu 12die4, (btw vielversprechender nick :D)


    vielen Dank für die Info.
    Genau, mit dem Problem meinte ich die Nachzieheffekte als Resultat aus der Hold-Type Technik, wie Du es nennst.
    Wenn diese bei Plasmas nicht auftreten, wozu dann dort auch diese Zwischenbilder ...!?


    Lieben Gruß
    Mona

  • Endlich mal jemand, der den Nick nicht zwölf-die-vier liest. ;)


    DNM (Digital Natural Motion) ist nicht ausschließlich für die Unterdrückung der Nachzieheffekte konzipiert. Den Effekt auf diesem Gebiet zweifele ich sogar ziemlich an. Stattdessen hat man erkannt, dass 25 Vollbilder pro Sekunde (bei DVD) bzw. 24 (Kino/Blu-Ray) nicht das Maß der Dinge bei der Bewegungswiedergabe sind. Da es aber an Formaten und Technik mangelt, die mehr Bilder pro Sekunde wirtschaftlich speichern könnte, kann man an den Quelldaten nichts ändern. Daher muss irgendwie im Gerät intern eine Vervielfachung stattfinden und das erreicht DNM (oder oft nur 100Hz genannt). Auch Plasma profitiert daher von "100Hz". Allerdings ist die Technik wie bereits erwähnt keineswegs optimal und nur als Notlösung anzusehen. Bleibt nur zu hoffen, dass die Entwickler für den Blu-Ray Nachfolger die richtigen Schlüsse ziehen und ein Format auf den Markt bringen, dass z.B. 50 Vollbilder/sek darstellen kann. Damit wäre auch 100Hz redundant und könnte "zu den Akten" gelegt werden.


    Ansonsten hast du schon richtig erkannt, dass Plasmas keine Nachzieheffekte haben (von einem gelegentlichen Phosphor-Lag mal abgesehen) und diesbezüglich 100Hz keinen Sinn macht.

  • Ich weiss jetzt nicht wie das in der praxis aussieht dass man sagt dass durch die 100hz das kinoerlebnis verloren geht, aber es gibt doch fernseher die haben 100hz und 24p wie sieht es dann da aus?


    ich verstehe die mischung der beiden techniken sowieso nicht ganz, wie wird das realisiert.


    ach und sind die 100 hz angeht den gar nicht wichtig oder kommt es auf den fernseher an, es gibt doch sicherlich den einen oder anderen fernseher dem die 100hz gut tun würden ? also jetzt bezogen auf schlieren und schäre der bilder z.B bei schrift.

  • Quote

    ich verstehe die mischung der beiden techniken sowieso nicht ganz, wie wird das realisiert.


    Die 100/120/200/240Hz bezeichnen eine geräteinterne Zwischenbildberechnung, die auf verschiedene Eingangssignale aufsetzen kann (eben z.B. auch 1080p24). Sieh das mit der Zielfrequenz nicht so eng, die vernünftigen Implementierungen sind heute eh alle mit einer gewissen Granularität steuerbar. Wirkliche gute Algorithmen führen auf niedriger Stufe aktuell nicht mehr zu dem befürchteten Videolook.


    Dabei sind diese Zwischenbildberechnungen immer optional. Du kannst, um bei deinem Beispiel zu bleiben, also auch ein 1080p24 Signal ohne künstlich berechnete Bilder anzeigen lassen. Wenn der TV das korrekt handelt, auch ohne Judder.


    Gruß


    Denis

  • Quote

    Original von 12die4
    .... Denn auch wenn es erstmal gut klingt, hat es auch (je nach Geschmack) gravierende Nachteile. Der Bildeindruck vom klassischen TV-Programm geht vollkommen verloren. Man hat sich einfach jahrzehnte an 25 oder maximal 50 Bilder pro Sekunde gewöhnt, jetzt auf einmal mit deutlich mehr konfrontiert zu werden, sieht äußerst merkwürdig aus. 50fps kennt man z.B. aus Soap-Operas und anderem TV-Inhalt der interlaced produziert wird. Spielfilme sind dagegen progressiv in 25fps augezeichnet. Das hat zur Folge, dass Spielfilme mit 100/200Hz einen Soap-Opera Look haben. ...



    Was bitte ist ein "Soap Opera Look"?


    Ich habe auch schon davon gehört, daß Kinofilme (mit 24 Bildern pro Sekunde) auf LCDs Probleme machen können:


    Ein in einschlägigen Internet-Foren derzeit noch viel heißer diskutiertes Schlagwort ist "24p" ("p" für "progressive scan", also Vollbild-Darstellung).


    In diesem Format werden weltweit seit den Anfängen des Kinos Spielfilme produziert, also mit einer Frequenz von 24 Vollbildern pro Sekunde.
    Und weil die große Kinoleinwand auch für HD-Enthusiasten das Maß aller Dinge ist, werden Spielfilme auch auf HD-DVD oder Blu-ray im 24p-Format abgespeichert – und von neuen HD-Abspielgeräten ausgegeben.


    Moderne LCD-Fernseher laufen aber mit mehr als 24 Bildern pro Sekunde, also mit mehr als 24 Hertz.
    Sie bedienen sich deshalb im Wesentlichen dreier verschiedener Methoden, um das 24p-Signal darzustellen.
    Allerdings: Trotz der protzigen 24p-Logos allerorten gelingt bislang nur wenigen Geräten eine makellose 24p-Darstellung.
    Besonders bei der Interpolation tritt mitunter der negative "Halo"-Effekt auf. Er entsteht, wenn der Bildprozessor bewegte Objekte schlecht "vorausahnt".
    Dann erscheinen diese scherenschnittartig vom Hintergrund abgesetzt, wie man das auch von Soap-Operas kennt.



    Aber vorstellen kann ich mir unter dem genannten Effekt nichts.
    Ich finde Soap-Operas zwar sch..., aber nicht wegen des Bildes.


    Kann das einer mal näher erläutern?


    Gruß
    Argonaut
    :)

  • Kann man halt schwer beschreiben.
    Vergleich doch mal wie das Bild im Vergleich zu einem übertragenen Spielfilm aussieht. Das ist einfach eine ganz andere Qualität. Meine Vermutung ist, dass es halt daran liegt, dass Spielfilme progressiv und Seifenopern meist interlaced aufgezeichnet werden. Dadurch hat man eine höhere zeitliche Auflösung bei gleichzeitig geringerer Auflösung. Und dadurch wirkt es einfach anders.

  • Heute mal wieder unterwegs gewesen, nach LCD-TV Ausschau halten (gucke nach wie vor noch in die Röhre).



    Auf einem größeren LCD Fernseher (Philips) lief gerade Star Wars Episode 1.


    Und da habe ich gesehen, was mit "Soap Opera Look" wohl gemeint ist.



    Das Bild - wirklich gestochen scharf - wirkte nicht wie im Kino, sodern tatsächlich wie bei einer dieser Trash Soaps Nachmittagsprogramm - irgendwie unnatürlich.


    Komisch, daß das auch jetzt noch ein Problem zu sein scheint.


    Vorausgesetzt, es handelte sich wirklich um den besagten Effekt.

  • Ich war letzhin auch wieder mal im MM und hab mir die Bildqualität einiger LCD und auch Plasma TVs angeschaut und ich kann mir nicht helfen aber die natürliche Farbdarstellung schafft ein Plasma in meinen Augen viel besser. Bei den meisten LCD TVs sind die Farben unnatürlich grell. Vermutlich liegt das auch an der Hintergrundbeleuchtung während bei einem Plasma jeder Bildpunkt selbstständig leuchtet. Auch bei schnellen Bewegungen kommt es mir so vor als liefere hier ein Plasma die bessere Schärfe. Oft sieht man bei den LCD TVs gezackte Kanten und das sich bewegende Objekt wirkt verschwommen. Auch da hat der Plasma den Vorteil dass die Reaktionszeit keine Rolle spielt denn bei dieser Technik gibt es keine Verzögerung. Dafür brauchen Plasma deutlich mehr Strom. Da stellt sich mir die Frage was für einen Nachteil - mal abgesehen vom höheren Stromverbrauch - hat denn eigentlich ein aktueller Plasma TV?