Posts by FlashBFE

    Es wäre ja mal sehr nett, wenn du ein paar Quellen für deine Behauptungen hättest. Auch für den Asien-Rückruf. Mal kurz bei Wikipedia vorbeigeguckt (besser als nichts):


    Quote

    Das größte technische Problem stellt die vergleichbar geringe Lebensdauer mancher aus organischen Materialien bestehenden Bauelemente dar. Bei OLEDs bezeichnet man als Lebensdauer die mittlere Betriebszeit, nach der die Leuchtdichte auf die Hälfte abgesunken ist. Während bei roten OLEDs die Lebensdauer bereits auf ca. 10 Mio. Stunden (mehr als 1100 Jahre) geschätzt wird, leben blaue Dioden im Durchschnitt „nur“ 150.000 Stunden (mehr als 17 Jahre, Stand Anfang 2006).


    Allerdings müssen bei allen offiziellen Angaben zur Lebensdauer von OLED-Materialien mehrere wichtige Aspekte beachtet werden: Die (maximal mögliche oder im Verhältnis dazu verringerte) Anfangshelligkeit, bei der die Lebensdauermessung beginnt, die Zeit bis zum Abfall der Leuchtstärke auf 50 Prozent dieses Anfangswertes sowie die unterschiedlichen Temperaturen, bei der die OLEDs betrieben werden (können). Eine gut gekühlte OLED (egal welcher Farbe) mit geringer Anfangsleuchtstärke hat also immer eine sehr viel höhere Lebensdauer als eine OLED, die ohne Kühlung von Anfang an mit der maximalen Leuchtstärke betrieben wird. Zudem wird die Lebensdauer meist theoretisch aus dem kürzesten Wert extrapoliert: Da es kaum möglich bzw. sinnvoll ist, ein OLED-Material erst mal zehn- oder gar hunderttausende von Stunden bei mittlerer oder geringer Leuchtstärke zu testen, verwendet man die Lebensdauer bei maximaler Leuchtkraft und rechnet diese auf die geringeren Leuchtstärken um. Dass der Boom bei OLED-Monitoren bis jetzt ausgeblieben ist, hat vor allem mit diesen Lebensdauer- und Qualitätsunterschieden bei OLED-Farben und -Materialien zu tun.


    150.000 Stunden bei Einhaltung von ein paar Bedingungen. Die OLEDs dürfen natürlich nicht von Anfang an voll belastet werden. Aber fängt man beispielsweise bei halber Leuchtstärke an, kann man dann über die Lebensdauer hinweg automatisch den Verlust nachregeln und so eine konstante Qualität über lange Zeit erhalten.


    Also das ist nun wirklich überholter Aberglaube. Ich hab vor einem Jahr schon irgendwo gelesen, dass die OLEDs lange genug für ein normales Fernseherleben halten würden. In Kleindisplays wie bei Handys usw. werden sie ja auch schon reihenweise verbaut.


    Die LCDs und Plasmas bringen bei großen Bildschirmen aber noch genug Geld rein, also warum sollten die Hersteller was besseres bringen?

    Quote

    Original von Tscheckoff
    Die Entwicklung geht eben weiter ...


    Kann man so nicht sagen. Da 23" bis 28" TFTs dieselbe absolute Auflösung haben, kann man sich aussuchen, ob man lieber kleine oder große Pixel bevorzugt. Ich will lieber kleine.


    Was mich weiterhin wundert: Es wurden nun 26",27" und 28" Bildschirme angekündigt. Welche von diesen niedrig-dpi-panels werden nun zum de-facto Standard werden?

    Quote

    Wurstdieb
    Keine Ahnung wo du dieses 'Wissen' hernimmst - Ich hoffe, nicht aus den Datenblättern der Hersteller. Jedenfalls werden bei Tests wirklich seriöser Fachzeitschriften (etwa der c't) regelmäßig ganz andere Werte festgestellt.


    Ich habe nicht umsonst den Link zur Quelle gepostet, ganz im Gegensatz zu dir. Vielleicht das nächste Mal genauer lesen. Den Rest hat ja tm101 geschrieben.


    Quote

    tm101
    Ganz am Rande, mittlerweile kommen "Geräte mit Black Frame Insertion" auf den Markt. Damit lässt sich die Bewegungsunschärfe abstellen.


    Die Bewegungsunschärfe abschalten und dafür ein 60Hz-Flimmern einführen ist m.M.n. ein schlechter Tausch. Aber das Thema gabs hier schon oft genug. Womit wir aber bei den Augenschmerzen wären ;).


    Quote

    tm101
    Außerdem habe mehrere Leute von Problemen (Augenschmerzen) bei 19 Zoll TFTs berichtet und das auf die niedrige Pixeldichte (große Pixelabstände) zurückgeführt.


    Das kann ich etwas bestätigen. Ich habe hier auf Arbeit einen 17" und einen 18" direkt nebeneinander stehen. Mein Hauptmonitor ist dabei der 17er, weil er einfach schärfer ist (mehr DPI). Wenn ich nun auf den 18er gucke, versuchen sich erstmal vergeblich die Augen scharfzustellen. Das war am Anfang echt nervig, mittlerweile hab ich mich aber fast dran gewöhnt. Es hilft aber, ClearType auf dem 18er auszumachen. Dann wird die Schrift scharf, dafür aber eben Pixelig. Da man das aber dummerweise nicht getrennt einstellen kann, hab ich es wegen dem 17er angelassen.
    Wie das nun an einem 19er wäre, will ich garnicht ausprobieren. Nichtsdestotrotz sind zu hohe Helligkeit und Kontrast aber die größeren Übeltäter. Vielleicht hat der Monitor ja auch einen schwarzen Rahmen? Dann siehe TCO-Richtlinien.


    Das stimmt so nicht. VA Panel schaffen einen schwarz-weiß Wechsel in 10ms, TN Panel in 8ms. TN Panel haben aber den Vorteil, dass (durchschnittliche) grau-grau Wechsel viel schneller sind.
    Siehe hier:


    Also könnte man einen VA Monitor mit bis zu 100Hz ansteuern, um bei starken Kontrastwechseln (also genau da, wo man es auch braucht) die geringe Kristalldrehzeit auch auszunutzen. Bei Grauwechseln würden beim gezeigten VA Panel jedoch auch rund 55 Hz reichen.


    Und bei LCD-TVs hat ja Samsung schon einen 100Hz Bildschirm gezeigt. Jetzt müsste das nurnoch auf die PC-Monitore erweitert werden mit DL-DVI und schnellerer Elektronik.

    Interessantes Teil. Das sind dann genau 314,7DPI, also von der Auflösung her Fotoqualität. Wenn man auf sowas zocken würde, bräuchte man glaub ich kein Antialiasing mehr.

    Quote

    Original von rille
    Warum willst du denn 75 Hz haben? Bei 1600x1200 wird das schon deshalb nicht gehen, da (Singe Link) DVI nicht mehr hergibt.


    Ich hätte am liebsten auch einen 24"er, der mehr schafft als nur 60Hz. Es gibt wahrscheinlich noch einige Leute da draußen (v.a. Spieler), die noch auf ihren Röhren hocken, damit sie 100Hz oder mehr darstellen können.


    Zur Erinnerung: Mehr Bilder pro Zeit reduzieren bei statischen Displays wie LCDs auch den Bewegungsunschärfe-Effekt, also bitte keine Antworten nach dem Motto "sieht man doch eh nicht".


    Es hindert auch niemand die Hersteller daran, in 20"/24"ws Monitore Dual-Link-DVI einzubauen. Damit wären mit einem 24"er und reduced blanking bis zu 120Hz drin. Das wäre für mich der perfekte Monitor zum zocken. Natürlich brauchts dazu auch die passende Grafikkartenleistung (um solchen Antworten gleich vorzugreifen).

    Quote

    Original von Sailor Moon
    Das Problem liegt hier eher bei ATI. Da kommt der Bildschirm wohl nicht mit den Timings zurecht - ein anderer kann es wiederum.
    Mit nVidia Karten hatte ich da bislang noch nie ein Problem, egal in welcher Kombination, aber bei ATI hört man das leider öfter.


    Gruß


    Denis


    Bei meinem 17"er (ja ich warte auch noch auf nen guten 24iger) ist es genau andersrum, da macht meine Geforce Probleme. Solange der Windows Treiber mit eingestelltem reduced blanking nicht geladen ist, geht mein Monitor immer sporadisch aus und wieder an (also signal verloren meldung). Sehr nervig, wenn man im Bios was einstellen will, aber immernoch besser, als wenn garnichts angezeigt wird. ;)


    Der Behardware Test zum Monitor war für mich auch nicht wirklich erquickend, ob nun mit Z oder ohne.

    Also ich muss mal allgemein zu den Farbraumtests hier bei Prad sagen, dass sie sowieso ziemlich nebulös gemacht werden. Von daher kann ich die Verwirrung des Threaderstellers verstehen.


    So allgemeine Aussagen wie "großer Farbraum" sagen eben einfach nichts aus. Und die Diagramme sind auch fast wertlos, da sie komplett undimensioniert sind. Die reichen höchstens zur groben Abschätzung. Diese Volumenansicht kann man sich ganz sparen, da sie nicht mehr Informationen als die 2D Ansicht enthält und eher nur zusätzlich verwirrt.

    Quote

    Original von TurricanM3
    Wie ist das nun mit dem MVA-Panel?


    Ich hatte mal ein Premium MVA-Panel bei einem Viewsonic und da gab es diesen Ghosting-Effekt.


    Ist ein MVA also eher ein "minderwertiges" Panel? :(


    Ghosting ist ein Übersteuern des Overdrives, also ein "Fehler" in der Ansteuerelektronik, nicht im Panel.


    Welche Paneltechnologie ansich heutzutage die "beste" ist, kann wohl keiner sagen. Es gibt auch keine Vergleiche heutiger Paneltechnologien mehr. Nur in der Anfangszeit, als die TFT Bildschirme in Mode kamen, gab es ein paar vergleichende Artikel. Aber aufgrund der Weiterentwicklung der Technologien gelten die damaligen Vor- und Nachteile heute überhaupt nicht mehr.


    Vielleicht wäre das ja mal eine Mammut-Aufgabe für einen Prad-Artikel, die beste heutige Paneltechnologie zu küren ;).

    Wieso steht im Threadtitel etwas von S-IPS? Das ist laut der LG Website ein Premium MVA Panel. Es hätte mich jetzt auch spontan gewundert, wenn S-IPS Panels ohne weiteres den Sprung im Kontrast auf 1000:1 schaffen.

    Quote

    Original von arcon


    die technik existiert seit es fernseher mit 60hz und filmmaterial mit 24hz gibt. und billig ist sie auch, ausser wenn sie richtig angewendet wird und nicht nur fields geblended werden, um die fehlenden frames zu erzeugen.


    das vernünftig bei hd-res bzw. der auflösung eines 2x zoll displays zu machen erfordert relativ aufwendige chips, da die meisten in den alten hd-auflösungen (max 720p) an ihrer leistungsgrenze ankommen. für auflösungen darüber kenne ich derzeit nur ein chipset und das kostet richtig geld.


    Lies dir am besten mal den Artikel bei Behardware durch, den der Threadstarter gepostet hat. Es geht hier NICHT um ein einfaches überblenden, sondern um tatsächliche Echtzeit-Objekt- und Bewegungserkennung und deren Interpolation. Genau das ist doch das Besondere, um das es hier im Thread und bei dem speziellen Monitor geht.

    Die Kaltlichtkathoden in LCDs werden doch normalerweise mit mehreren kHz betrieben, wenn ich mich nicht irre?! Flackern darf da normalerweise nichts. Bis jetzt hat auch noch niemand etwas in der Richtung über den 244 geschrieben. Ich schätze mal, das Ding ist einfach kaputt. Vielleicht ist das auch sowas wie das Monitor-Equivalent einer Brummschleife?

    Quote

    Original von arconwas wieder mal meine verschwörungstheorie bestätigt, dass die hersteller alles tuen, um die seit längerem existierenden techniken im hochpreisigen tv-markt zu halten um so die bisherigen panels möglichst unmodifiziert vermarkten zu können.


    echte 120hz mit bfi/bdi gibts ja schon im hochpreisigen tv-bereich. die hersteller wissen also wie es geht. gesucht werden aber offenbar weniger gute lösungen sondern vor allem billige, die sich gut auf dem karton anbringen lassen und dem kunden sinnvolle technologie-erweiterungen suggerieren.


    anders ist es nicht zu erklären, dass man ein display mit 100hz betitelt obwohl es nur xx frames darstellen kann und die anderen mehr schlecht als recht zu erraten versucht. quasi bad ivtc in hardware.


    Sorry, aber da hast du was tierisch falsch verstanden. Die Berechnung von Zwischenbildern ist weder eine bereits länger existierende Technologie, noch ist es eine "billige". Vor allem im Vergleich zu BFI, was KEINE echten 120Hz erzeugt, sondern nur schwarze Zwischenbilder einfügt. Ein Display, was Zwischenbilder berechnet, zeigt diese jedoch auch an. Worüber sich Sailor Moon beschwert, ist die nachträgliche künstliche Veränderung des Originalsignals und vor allem, dass dann Kinofilme einen Video-Look bekommen.


    Ich finde aber den theoretischen Ansatz trotzdem gut. Behardware schreibt ja auch, dass es bei der Spiele-Konsole super aussieht. Es ist also "nurnoch" eine Frage des Fine-Tunings. Die Königslösung wäre natürlich, wenn Kinofilme gleich in 100Hz produziert werden würden. Da das aber so schnell nicht passieren wird, muss man sich anders helfen. Die Berechnung der Zwischenbilder halte ich da für die gleich zweitbeste Methode.


    Bei Computerbildschirmen wäre die direkte Zuspielung von 100Hz natürlich das beste und auch vergleichsweise einfach realisierbar. Vor allem da frage ich mich, warum die Hersteller keinen Schritt weiter machen.