Posts by Yoshi360

    Toshiba hatte anfangs gesagt, Cell-Prozessoren in seinen DVD-Playern und TVs verwenden zu wollen und durch die hohe Rechenleistung ein besonders gutes Upscaling zu erreichen, aber soweit ich weiß stecken in den Resolution+-Geraeten doch nur normale DSPs. Ich glaube bei Beisammen kamen die Dinger deswegen auch nicht so gut weg.

    LED ist nicht gleich LED. Es gibt normale Pseudo-White-LEDs, die den Energieverbrauch senken und sofort ihre volle Helligkeit erreichen, und es gibt RGB-LEDs, die zusätzlich den darstellbaren Farbraum erweitern. Und darüber hinaus können LEDs entweder wie bei CCFLs üblich an den Seiten befestigt und das Licht dann über eine Folie mehr oder weniger gleichmäßig verteilt werden oder es wird eine Matrix aus unzähligen LEDs hinter dem Panel angeordnet, die dann in Gruppen angesteuert werden können, was den Schwarzwert und die Ausleuchtung verbessert.


    Bei Fernsehern werden meistens Pseudo-White LEDs verwendet, die hinter dem Panel angeordnet werden. Durch den Schlankheitswahn haben aber einige Hersteller wie Samsung jetzt auch wieder angefangen, sie seitlich anzuordnen, wodurch der Vorteil des besseren Schwarzwertes verloren geht. Bei Monitoren werden im bezahlbaren Preisrahmen bis 1000€ seitlich angeordnete Pseudo-White-LEDs verwendet, bei professionellen Monitoren dagegen RGB-LEDs (ich denke hinter dem Panel). Ich glaube es gibt auch ein oder zwei TN-Monitore mit RGB-LED, aber das ist selten und eigentlich Verschwendung.


    (ich hoffe, ich habe hier jetzt nichts falsches erzählt)


    Bei seitlich angeordneten LEDs ist meiner Meinung nach der einzige Vorteil, dass sie sofort die maximale Helligkeit erreichen, während CCFLs erst warm laufen müssen. Auch haben sie eine (theoretisch) längere Lebensdauer und werden nicht mit der Zeit dunkler und/oder gelblicher. Der niedrigere Energieverbrauch ist vernachlässigbar, denke ich, da dort auch noch andere Faktoren mit einspielen.


    Wenn du wirklich einen Monitor in dieser Größe und mit dieser Auflösung willst, dann würde ich nicht warten. Der Dell ist ja noch nicht so alt und der Übergang zu LED ist nach meiner Erfahrung eher schleichend. Ich habe zumindest nicht den Eindruck, dass jetzt alle Hersteller schlagartig auf LED umsteigen. Und soo riesig ist der Vorteil auch nicht.

    Ich habe seit einer Woche auch einen HP w2448hc und wollte nur mal kurz meine Eindrücke schildern:


    Das Bild ist toll! Die Farben sind richtig satt, der Kontrast ist gut, durch die Glossy-Oberfläche sieht das Bild im Vergleich zu einem matten Display wie blank poliert aus. Ich habe aber das Gefühl, dass der Schwarzwert etwas besser sein könnte. Durch die relativ niedrige Pixeldichte ist das Display etwas unschärfer (grobpixeliger) als manche anderen Monitore, aber das liegt halt an der Größenordnung (24" bei 1920×1200) und ist bei der Konkurrenz genauso. Ich habe leider ein Colorimeter das nicht für Bildschirme mit Wide Color Gamut optimiert ist, aber ich bin mit der erstellten Farbwiedergabe trotzdem zufrieden.


    Der HP ist mein erster Desktop-Monitor mit TN-Panel, bisher habe ich darum immer einen großen Bogen gemacht. Aber weil ich einen Glossy-Monitor mit dieser Auflösung wollte und für meinen Favoriten, das Apple LED Cinema Display (mit IPS-Panel), ein neues Macbook gebraucht hätte, habe ich den Kauf gewagt. Der Blickwinkel ist deutlich besser als bei meinem Notebook und absolut akzeptabel. Allerdings verändert sich die Helligkeit vor allem in der Vertikalen schon bei kleineren Kopfbewegungen leicht. Das ist für die meisten Anwendungen nicht so schlimm, aber für Grafikarbeiten natürlich problematisch. In der Horizontalen wird das Bild bei größeren Blickwinkeln etwas gelblich, ist ansonsten aber noch erkennbar. Ich mache Bildbearbeitung nur hobbymäßig und habe zur Not auch noch ein VA-Display (Wacom) und kann deswegen mit dem nicht ganz perfekten Einblickwinkel leben, aber für professionelle Grafikarbeiten bleiben TN-Panels auch weiterhin ungeeignet.


    Auch neben der Glossy-Oberfläche hat der HP einiges mit dem neuen Cinema Display gemein, wie das ähnliche Design, den Helligkeitssensor (ich meine zumindest, dass Apple auch einen hat), die Webcam und die Lautsprecher. Das Gehäuse des HP ist jedoch leider vollständig aus Kunststoff gefertigt. Dafür ist der Standfuß sehr flexibel und erlaubt nicht nur die Höhenverstellbarkeit, sondern auch eine Pivotfunktion (wie viel Sinn das bei einem TN-Panel hat, muss jeder selbst wissen). Der Bildschirm wackelt dadurch bei Vibrationen aber etwas mehr (ist wohl so üblich, die Dells in meiner FH tun das auch), deswegen wäre mir der starre, aber stabile Fuß des Cinema Displays lieber. Die Webcam ist gut und besser als die eingebaute iSight meines Notebooks. Die Lautsprecher sind auch sehr gut und ziemlich laut. Sie haben einen guten, klaren Klang und könnten höchstens etwas mehr Bass vertragen. Leider werden sie nicht über den USB-Hub sondern über ein zusätzliches analoges Audiokabel angeschlossen (wenn man kein HDMI hat). Der Helligkeitssensor funktioniert zuverlässig und ist sehr komfortabel.


    Das OSD ist einfach zu bedienen.


    Insgesamt bin ich sehr zufrieden mit dem Monitor, insbesondere in Anbetracht des niedrigen Preises von nur 360€. Trotzdem ist das rund doppelt so teure LED Cinema Display seinen Aufpreis absolut wert und wer einen Mac mit Mini DisplayPort hat, dem würde ich die Mehrinvestition empfehlen. Wer nicht über so eine Ausstattung verfügt oder wer ein gutes Glossy-Display mit mehr Anschlussmöglichkeiten (VGA, DVI, HDMI) sucht und nicht unbedingt Grafiker von Beruf ist, der ist mit dem HP w2448hc sehr gut bedient.

    So wie ich das verstanden habe, greifen die meisten Anwendungen unter OSX auf das Farbmanagement des Betriebssystems zu. Safari tut das auch, aber nur wenn ein Zielprofil(?) angegeben ist. Bilder mit sRGB-Farbprofil zeigt Safari bei mir also anders an als Bilder ohne eigenes Profil, laut der oben verlinkten Website werden diese dann im Monitorfarbraum angezeigt. Der grüne Porsche aus dem anderen Thread wird bei mir aber seltsamerweise trotzdem knallgrün angezeigt. Firefox benutze ich nicht.


    Das mit Spyder 2 ist natürlich doof. Ich habe es mir gekauft, weil ich keine (semi-) professionellen Ansprüche habe und das express besonders günstig war und trotzdem sehr gut bewertet wurde. Das Spyder 3 kostet ja fast doppelt so viel, was mir zu viel wäre. Außerdem habe ich die Software jetzt ja schon registriert und kann es nicht mehr umtauschen (glaube ich?). Die Farben sind aber schon besser als vorher, besonders auffallend finde ich eigentlich nur das Grün. Aber ich kann mich ja an Amazon wenden, vielleicht nehmen sie es ja doch zurück. Wobei halt 130€ gegenüber 75€... :S


    Am besten wäre es wenn man einstellen könnte, dass alle Anwendungen sRGB anzeigen sollen, wenn nichts anderes definiert ist. So würde ich den erweiterten Farbraum nur dann sehen, wenn er auch gewünscht ist. Aber das geht wohl nicht.

    Ich habe meinen WCG-Monitor jetzt mit meinem Spyder2express auf 6500K kalibriert(?) und ein Monitorprofil erstellt. Soweit sieht das ganz gut aus und die Tests auf sehen auch ganz gut aus. Nur sind die Farben jetzt nur dann „richtig”, wenn die Sachen, die ich mir angucke, auch ein eingebettetes Farbprofil haben. Wenn kein Farbprofil vorliegt, z.B. bei den HTML-Farben von Websites, wird im Monitorfarbraum angezeigt und z.B. Grün wird dann sehr giftig. Nach dem was ich bisher verstanden habe, kann ich da wohl nichts machen. :( Ich könnte die Farben im OSD des Monitors auf sRGB einstellen, aber dann wird nur die Hintergrundbeleuchtung heller und das Giftgrün bleibt trotzdem.

    Ich habe den Spyder2express und bei mir funktioniert er gut (zumindest was ich als Amateur so dazu sagen kann). Er funktioniert aber leider nur wenn ich als Administrator eingeloggt bin (Leopard). Als ich ihn in meinem eingeschränkten Konto ausprobiert habe, konnte er das erstellte Profil nicht speichern und hat auch nicht nach einem Administratorpasswort gefragt. Die Farben sind viel besser als ich mit bloßem Auge hätte herausfinden können. Für Einsteiger ist das meiner Meinung nach eine gute und günstige Möglichkeit!

    Also sollte ich jetzt für mein WCG-Display ein AdobeRGB- und für mein Cintiq ein sRGB-Profil erstellen und mir über den Rest keine Gedanken machen, weil ich sowieso nichts ändern kann?


    Das mit dem über den Kopf hinweg entscheiden verstehe ich nicht: wenn das Betriebssystem bereits das Farbmanagement übernehmen würde, bräuchte das Programm sich doch um nichts mehr kümmern.

    Das sichert aber keine farbechte Darstellung. Die gibt es erst mit Hilfe der erfaßten Monitorcharakteristik in farbmanagementfähiger Software, die hierfür das Dateiprofil (z.B. sRGB oder AdobeRGB) und das konkrete Monitorprofil in Windows nutzt.
    ...
    Es gibt ja noch andere fm fähige Anwendungen - aber grundsätzlich korrekt, ja. Auch gibt es soetwas wie Farbmanagement auf Betriebssystemebene (insbes.: MacOS, Vista), wobei auch hier die konkreten Anwendungen das erstmal nutzen müssen.


    Ich verwende Mac OS X, was ist denn hier der Unterschied? Müssten nicht alle Cocoa-Anwendungen automatisch auf die Betriebssystemressourcen, also auch das Farbprofil Zugriff haben?

    Also ist eine Software-Kalibrierung in Wirklichkeit keine Kalibrierung, sondern eine Profilierung? Und wozu brauche ich ein betriebssystemweites Monitor-Profil, wenn das dann doch nicht von jedem Programm genutzt werden kann, sondern nur von farbmanagementfähiger Software? Das heißt dann doch, dass ich außerhalb von Photoshop immer falsche Farben habe?


    Dass es das Thema schon mal gab hatte ich mir schon gedacht, ich habe über die Suche nur keinen geeigneteren Thread gefunden. Danke für den Link! :)


    Wobei wir hier weiter mit 50Hz arbeiten werden.


    Und damit wird das deutsche Fernsehen den PAL-Speedup nie los! :thumbdown: Zum Glück haben auch deutsche BDs echtes 24p...


    Quote

    Auch sehr gute Deinterlacer können naturgemäß bei echtem Interlaced-Material nicht perfekt arbeiten (wobei schon erstaunliche Qualität möglich ist; gerade die Lösungen von ABT lassen es hier richtig "krachen" ;-) ).


    Gute Deinterlacer sind doch vor allem auch sehr aufwändig und teuer. Warum kann man das Interlaced-Format in Zeiten von rein digitalen Bildwiedergabegeräten nicht endlich mal aussterben lassen? Ich persönlich habe damit schon lange abgeschlossen (gucke kein TV). ;)


    Quote

    Insofern gibt es da die ideale Lösung für den Broadcast nicht.


    Die Zeit für 1080p60 ist eben leider noch nicht reif. :)


    Ansonsten vielen Dank für deine Ausführungen!

    Ich wiederbelebe den Thread einfach mal, weil ich zu genau dem Thema eine Frage habe! :)


    Selbstverständlich!
    Warum sollten sich die Leute auf den uralten sRGB Farbraum beschränken, wenn ihre neuen Monitore und Kameras schon jetzt den großen Adobe Farbraum abdecken?


    Werden sRGB-Dokumente nicht vielleicht falsch dargestellt, wenn der Monitor auf einen anderen Farbraum kalibriert ist? Ich will ja keine Nachteile durch AdobeRGB bekommen.


    Ich habe einen Monitor mit normalem Farbraum und habe mir jetzt einen zweiten mit erweitertem Farbraum dazugeholt. Er hat nur ein TN-Panel (der andere VA) und ich interessiere mich für Bildbearbeitung und korrekte Farben sowieso nur hobbymäßig, trotzdem möchte ich möglichst richtige Farben und vor allem auf beiden Monitoren ungefähr gleiche Farben haben. Laut Prad-Test deckt er sRGB zu 99% und AdobeRGB zu 87% ab. Weil ich mit der Kalibrierung per Augenmaß Schwierigkeiten habe (ich verschlimmbessere damit meist alles nur) habe ich mir jetzt ein Einsteiger-Colorimeter gekauft. Sollte ich den Wide-Gamut-LCD nun auf AdobeRGB kalibrieren oder sollte ich beide auf sRGB einstellen? Ich fände es halt auch schade, die schönen zusätzlichen Farben „wegzuschmeißen”. Der andere wurde bei Prad nicht getestet, aber ohne Wide-Gamut kann er AdobeRGB bestimmt sowieso nicht darstellen, oder?

    Ansonsten überall dort, wo eine hohe zeitliche Auflösung (z.B. Sport) benötigt wird und keine progressive Aufzeichnung/ Broadcast genutzt werden kann. Das wird sich auch im HD Zeitalter nicht erledigen (=> 1080i).


    Ja, leider. Soweit ich weiß wollen zwar die Öffentlich-Rechtlichen auf 720p setzen, was dann Sportübertragungen in 720p60 ermöglichen würde. 1080i wird aber wohl nicht so schnell aussterben.


    Quote

    Wie gesagt, die Zwischenbildberechnungen haben inzwischen alle eine gewisse Granularität. Philips DNM war dabei, zumindest in der Ausführung in der ich es kenne, nicht wirklich gut. Man sollte auch beachten, dass Videocontent nach dem Deinterlacing zu 50/60 Frames/s führt und es gibt ja in 720p auch direkt entsprechend progressive Broadcasts.


    Okay, bei dem Wort Granularität musste ich googlen. ;) Ich weiß nicht genau was du damit meinst, das Filmkorn bei Filmen soll doch nicht verschwinden!? Ich finde den Soap-Look auch manchmal gewöhnungsbedürftig, aber das aktuelle DNM z.B. im Philips Aurea (toller Fernseher btw) finde ich sehr überzeugend. Und das deinterlacete Material ist ein gutes Argument, aber bei 720p60 ist eine zusätzliche Zwischenbildberechnung doch gar nicht mehr wirklich erforderlich, oder?


    30 Frames/s hast du im kommerziellen Bereich faktisch nirgends. Im NTSC-Einzugsgebiet sind 24 Frames/s für Film (für den Broadcast/ DVD Ausgabe in einem 3:2 Verhältnis segmentiert auf 60 Fields/s) und "echte" 60 Fields/s für Video üblich. Bei "uns" sind es 25 Frames/s für Film (segmentiert auf 50 Fields/s) und "echte" 50 Fields/s für Video.


    Okay, 30p ist nicht so geläufig, aber wo findet man denn noch 60i? Die meisten amerikanischen Serien werden doch schon lange progressiv aufgenommen (meistens in 24p, aber ich dachte da gäbe es auch häufig 30p?). Auch Heimkameras können schon lange progressiv aufnehmen. Die europäischen Äquivalente habe ich bewusst weg gelassen, mit etwas Glück werden sie in Zukunft sowieso aussterben. :)


    Quote


    Film mit seinen 24 Frames/s (oder 25 Frames/s nach dem Speedup hierzulande) ist in bestimmten Szenarien alles andere als flüssig. Grundsätzlich haben die Zwischenbildberechnungen schon einen Effekt, der sich in geringerer Bewegungsunschärfe und "smootheren" Wiedergabe äußert (letzteres ist eben gerade bei Filmcontent sichtbar). Dafür fängt man sich mögliche Artefakte ein - bei mäßigem Algorithmus bzw. zu aggressiven Einstellungen dann auch den vielbeschworenen Videolook.


    Das ist mir alles bewusst. Nur sehe ich nicht, warum eine Zwischenbildberechnung von 24p auf 60p plötzlich nicht mehr ausreichen soll. Das hat doch bisher wunderbar geklappt (Philips), außerdem kann man eine noch höhere Bildrate sowieso nicht erkennen. Ich hoffe dafür eines Tages nicht auch belächelt zu werden, aber meiner Meinung nach braucht niemand mehr als 60Hz für 2D. ;)

    Ja, ich denke auch dass für jedes Auge das Bild separat berechnet werden muss, also eine Bildratenverdopplung notwendig ist. Doch die Bildrate ist ja nicht fest an die Bildwiederholrate gekoppelt, ein mit 30 Bildern pro Sekunde berechnetes Bild kann auch in 60Hz (jeder Frame x2) angezeigt werden.


    Das mit den 120Hz bei TVs halte ich nachwievor für einen Marketingtrick. Ich kenne zwei Methoden, um die (angebliche) Bewegungsunschärfe zu vermindern: man kann nach jedem Frame einen schwarzen Frame zeigen, ich glaube LG hat daran geforscht. Dadurch wäre dann eine doppelt so hohe Bildwiederholrate nötig (da die meisten Bildsignale aber nur 24p oder 29.97p haben, wären auch 60Hz ausreichend), das Bild wäre auch nicht mehr flimmerfrei. Oder man kann Zwischenbilder berechnen. Das machen die meisten anderen Hersteller so, aber auch hier reichen 60Hz. Vielleicht täusche ich mich ja und es gibt einen triftigen Grund dafür, warum 60Hz plötzlich nicht mehr ausreichend sein sollen (soviele Bilder pro Sekunde kann das Auge eh nicht erkennen), aber den konnte mir bisher noch niemand glaubhaft erläutern (bei 2D-TVs, nicht bei 3D).

    Ich persönlich gucke schon lange in HD (HD DVD und ab diesem Jahr BD) und stimme dir da voll zu. Allerdings gehe ich nicht davon aus, dass sich HDTV in den nächsten 2 Jahren im Free-TV etablieren wird. Vielleicht ein paar Sender, aber nicht durchgehend. Von daher würde ich lieber heute auf ein gutes Bild setzen als zu hoffen, in 3 Jahren ein gutes Bild zu haben. An Blu-ray hat j2w ja offenbar kein Interesse.


    Aber bei nur 2 Metern Betrachtungsabstand braucht es eigentlich auch sowieso keinen so großen TV. Ich sitze 2,5m von meinem 40"er entfernt und wünsche mir manchmal einen 50"(habe aber auch HD). Ich denke, dass ein 40" oder 42" Fernseher bei j2w ideal wäre. Vielleicht wäre Plasma eine Überlegung wert, die sollen ja häufig ein besseres SD-Bild haben als LCDs. Den Pioneer hast du ja schon erwähnt, obwohl die schon in einer etwas gehobeneren Preisklasse spielen und man sich beeilen sollte, noch einen zu bekommen. :(

    Da bin ich wirklich mal auf die ersten Tests gespannt. Meine Vermutung: es müssen ja wohl quasi doppelt soviele Bilder berechnet werden wie bei 60 Hz und selbst mit "nur" 1680 x 1050 ist wohl gängige Hardware schnell an der Leistungsgrenze.


    Die 120Hz sind doch afaik nur deswegen wichtig, damit für jedes Auge 60Hz übrig bleiben, weil bei einer niedrigeren Frequenz das Bild flimmern würde (wahrscheinlich durch die Shutterbrillen, die ja abwechselnd ein Auge abdunkeln?). Die Bildrate sollte also davon unabhängig bleiben und lediglich doppelt so hoch wie bei 2D sein. Wenn man also z.B. bisher mit 30 Bildern pro Sekunde gespielt hat, wären dann 60 Bilder erforderlich. Immernoch leistungshungrig, aber das sollte zu schaffen sein.


    @Sailor Moon: Danke, da war ich mir nicht ganz sicher. Dadurch wird die ganze 120Hz-Geschichte bei TVs aber meiner Meinung nach noch überflüssiger. Für Zwischenbildinterpolation reichen auch 60Hz und Bewegungsunschärfen kann ich bei modernen LCDs (ohne 120Hz) auch keine erkennen.

    Das Apple Cinema Display 30" hat einen Dual-Link-DVI-Anschluss, lässt sich also genauso wie die anderen 30"er an jedem Mac und PC mit Dual-Link-DVI anschließen. Über die Minimalhelligkeit weiß ich nichts, aber mit dem „grainy-Effekt” meinst du wahrscheinlich die angeraute (entspiegelte) Paneloberfläche. Glossy-Displays in der Größe sind mir nicht bekannt. Es könnte allerdings sein, dass Apple noch dieses Jahr das 30" Display durch ein Glossy-Display mit LED-Hintergrundbeleuchtung ersetzt (also identisch zum neuen 24"). Bisher gibt es dazu nur Gerüchte, es erscheint aber wahrscheinlich.

    Trotzdem sollte man eben auch entsprechend gutes Videomaterial haben, wenn man sich für einen großen TV entscheidet. DVD auf einem 60" bei 2m Abstand macht einfach keinen Spaß. j2w schaut zu 70% DVB-C (und ich vermute mal SD, kein HD), deswegen würde ich bei einem Betrachtungsabstand von 2m nicht über 40"/42" gehen. Anders wäre es z.B. bei Blu-ray, da würde ich so groß wie bezahlbar wählen.


    Die von mir verlinkte Tabelle ist natürlich nur eine Hilfestellung, ab welcher Größe und Betrachtungsabstand sich welche Auflösung lohnt. „Verlassen” kann man sich aber definitiv darauf, schließlich ist das einfache Physik: das Auge hat halt nunmal nur ein begrenztes Auflösungsvermögen. ;)