Beiträge von derGhostrider

    Ich glaube kaum, daß ich ohne Unterstützung das benötigte Material gestellt bekomme.
    Und "auslegen" könnte ich solche gewaltigen Anschaffungen bestimmt auch nicht.


    Ich weiß nicht, ob ich mich da besonders gut auskenne... Mir sind Meßmethoden prinzipiell bekannt, da ich im Rahmen meines Physikstudiums damit zu tun habe.


    Prinzipiell wäre ich natürlich bereit, nachdem ich den ersten Testbericht zu eurer Zufriedenheit abgeliefert habe, mich an solch ein Projekt zu begeben. Aber wie gesagt: Ich kann mir nicht vorstellen, daß mir persönlich jemand das Equipment zur Verfügung stellt, ohne daß ganz offiziell PRAD dahinter steht. Es gibt bestimmt genügend dahergelaufene, die versuchen von Herstellern teure Hardware zu erbetteln. ;)

    ;)


    OK... Problem erkannt, LÖSEN! :D


    Ganz im Ernst: Soetwas würde vielleicht nur mit irgendwelchen genormten Lichtquellen funktionieren. Vielleicht wäre es auch möglich einen Monitorhersteller (Eizo, Quato oder NEC) zu befragen, ob die Ideen hätten bzw mit Sonderequipment oder ihrem Fachwissen auszuhelfen. Einen Hersteller der Kolorimeter zu befragen wäre auch möglich, wobei man fairerweise dann alle anschreiben sollte, so daß jeder einen gleichen Teil beisteuern kann, damit niemand hinterher von einem einseitigen Bericht spricht. irgendwie müssen die Hersteller ihre Kolorimeter selbst ja auch testen können.


    Hier ist ein Referenz-Gerät, was wohl auch für die TFT-Herstellung eingesetzt werden kann:
    (Siehe Seite 28 - äh... Seite 26... also... 26 gedruckt als Text im Dokument, Seite 28 laut Foxit)


    Die Anschrift der deutschen Niederlassung findet sich, samt Telefonnummer, hier:


    Man könnte einen High-end Monitor (z.B. Reference21) nehmen, referenzmessungen mit einem solchen Gerät durchführen und das mit dem Vergleichen, was die Kolorimeter ausspucken. Jeweils zu der Zeit, zu der man z.B. mit dem Kolorimeter den weißpunkt bestimmt auch einmal mit dem Referenzgerät messen, um so zeitliche Schwankungen des Displays zu berücksichtigen.


    Voraussetzungen dafür sind wohl, daß man ein solches Gerät gestellt bekommt und man einen möglichst guten Monitor zur Verfügung hat. So könnte man zumindest die offensichtlichen Fehler aus dieser Mac-Zeitschrift verhindern, die mal ein paar Kolorimeter "getestet" hat.


    Super wäre es zusätzlich, wenn die Kolorimeterhersteller jeweis "ein paar" Geräte (minumum 3) zur Verfügung stellen würden. So könnte man auch eine Aussage zur Serienstreuung machen. OK, bei 3 je drei Geräten je Typ ist die Aussage nicht so toll, aber besser als nichts und noch im zeitlichen Rahmen eines Tests.


    Wichtig ist auf jeden Fall die jeweilige Vergleichsmessung mit dem "professionellen" Photospektrometer. Eine Anfrage bei dessen Hersteller könnte klären, ob es vielleicht in dessen Produktpalette noch genauere Geräte oder gar Geeichte Geräte gibt. Es sollte halt möglichst gut geeignet sein um den (erweiterten) Farbraum der Monitore und deren Weiß-/Schwarzpunkt zu erfassen.


    Mir ist klar, daß das nicht gerade leicht wird. Mit ein paar "guten" Tipps von Monitorherstellern und passender Hardware, könnte man es aber durchaus respektabel hinbekommen. :)


    Nicht so schnell aufgeben! Ich denke, daß es zumindest möglich ist.

    Also, da es defacto falsch gemacht wurde und immer der Ausreißer mit berücksichtigt wurde, nur unterschiedlich stark, (so steht es ja sogar unter der Tabelle), war es kein Versehen und somit Absicht. Hierdurch wurden die Werte verfälscht. => absichtlich verfälscht.


    Diese Aussage ist damit korrekt.


    Ich gehe nun mal nicht davon aus, daß vor dem Bericht bereits der Vorsatz existierte das Meßgerät schlecht zu machen, allerdings liest sich der Text am Anfang so, als ob auf jeden Fall gezeigt werden sollte, daß die Meßgeräte prinzipbedingt alle schlecht wären. Da ist solch ein "glücklicher Zufall" gerade recht.
    Wie gesagt: Richtig wäre es gewesen das defekte EyeOne Display2 gar nicht zu betrachten. Man beachte auch, wie enorm der Unterschied der Meßwerte zwischen "50% berücksichtigt" und "voll Berücksichtigt" sind. Wenn man nun im Geiste Interpoliert, daß die restlichen 50% auch noch verschwinden, dann müsste dieses Kolorimeter geradezu herausragende Werte ausgespuckt haben - meiner Meinung nach sogar zu gute Werte.
    Oder bei der "50% Berücksichtigung" wurde etwas vollkommen falsch gerechnet und es ist bei weitem nicht zu 50% eingegangen. Der Unterschied, wenn mehrere Display II getestet wurden und ein Mittelwert gebildet wurde, zu der vollständigen Berücksichtigung ist einfach viel zu groß. Da hätte ich gern eine Tabelle mit den einzelnen Meßergebnissen gesehen. Das würde für Klarheit sorgen.

    Danke!


    Nun wird mir einiges klar...


    Zitat

    Als Testmonitor diente ein 30"-Cinema-Display von Apple.


    Tolle wahl. Das erklärt dann zumindest, daß alle Testergebnisse derartig schlecht sind.
    Alle Werte in der Tabelle "Monitor-Farbmessgeräte – Testergebnisse im Detail" sind ja mit den Faktoren am Anfang der Tabelle (grau Hinterlegt) "normiert" worden. DeltaE im Profil (Durchschnitt) von fast 1,5 (iPro: 0,48*3) ist aber schon alles andere als gut. Wie soll man denn da genau sagen, daß ein Meßgerät "genau" ist, wenn der Monitor schon ein DeltaE von ca 1,5 IM SCHNITT produziert? Mit dem 2690 kommt man auf Werte von 0,6 DeltaE im Durchschnitt. Je nach Kalibrierung (Schwankungen gibt es immer) kann das auch mal 0,45 sein. Das noch durch 3 geteilt und man landet bei 0,2 bis 0,15.
    Und das ist "nur" ein normaler guter Monitor und kein Reference21 oder ähnliches.
    Dazu "DeltaE Maximum" von über 3,6... Ohje. Und ich beziehe mich nur auf die besten ermittelten Werte!


    Eine Abweichung von 1,9-DeltaE für den Weißpunkt wäre für meinen Monitor schlecht. Dann würde ich die Kalibration wiederholen! Üblich sind bei mir 0,xx Werte. Minimal sogar 0,0x.
    In den Tabellen sind die Werte jedoch noch viel schlimmer! Dort werden die ermittelten Werte für den Weißpunkt durch 2,0 geteilt (siehe Kleingedrucktes!). Mit anderen Worten hätte das Display II einen Weißpunkt nur auf 3,8-deltaE genau bestimmen können (1,90*2,0) und selbst das noch gelobte i1 pro hätte nur 1,12 deltaE erreicht.
    Gelesen und gelacht...


    "Und das Gegengewicht so am USB-Kabel zu befestigen, dass es nicht alsbald wieder herabfällt, ist eine Aufgabe für Masochisten."
    Das kann ich nicht annähernd bestätigen! Das ging leicht, problemlos und sitzt so straff, daß es nicht abfallen kann. Selbst, wenn man sich mühe gibt! (Intensives Schütteln macht dem Gewicht nichts aus.) Beschädigen kann man damit auch nichts, es sei denn, daß man es wie eine Abrißbirne gegen das Display schleudert. Soetwas machen wohl nur geistig minderbemittelte Personen.
    Die Saugnäpfe hätten sich während des Tests immer wieder festgesaugt? Tja, falsche Handhabung! Das Teil soll vor das Display gehängt werden bzw, wenn das Display nach hinten geneigt ist, vorsichtig abgelegt werden. Es wird extra darauf verwiesen, daß man es nicht andrücken soll. Ich nutzte das Display II ja nun schon etwas länger und es haben sich nur einmal in der ganzen Zeit ein paar der Mini-Saugnäpfe festgehalten, da ich selbst aus Unfähigkeit etwas zuviel Druck ausgeübt habe. Normalerweise passiert aber gar nichts. Dafür ist der weiche Schaumgummirand zu hoch.



    Zitat

    Unter unseren i1-Display-2-Testgeräten befand sich ein dermaßen schlechtes Exemplar, dass wir zusätzlich die Ergebnisse unter Ausschluss dieses Exemplars angegeben und es ansonsten nur zu 50% berücksichtigt haben.


    Es ist ja OK, daß es genannt wird. Es ist von mir aus auch OK, daß man die Werte mit dem Ausreißer, obwohl sie nicht aussagekräftig sind, mit angibt. Aber warum ist nicht zumindest einmal der Wert OHNE Ausreißer ermittelt worden, sondern nur "mit Ausreißer" und einmal "Aureißer zu 50% berücksichtigt". Soetwas macht man nicht, wenn man Meßdaten auswertet! Ausreißer werden als solche gekennzeichnet und nicht berücksichtigt.
    Wer sagt außerdem, daß das Meßgerät defekt geliefert wurde? Im Artikel wird ja schön gesagt, daß von irgendwelchen Teilnehmern des Forums Meßgeräte benutzt wurden. Wer weiß, wie oft die schon hingefallen oder sonst wie mißhandelt wurden. (Ohne Staubschutzhaube bei starken Kettenrauchern im Büro...).
    Wenn man da einen Ausreißer erwischt, nungut. Dann ist das Gerät eben defekt. Selbst wenn man ein defektes nagelneu zugeschickt bekommt: Herrje! Das nennt sich dann eben DAO (dead on arrival) und ist auch kein Beinbruch. Das kann mit JEDEM Gerät, egal wie teuer, passieren.


    Hier wurden die Ergebnisse absichtlich verfälscht und aufgrund eines defekten Gerätes die ganze Baureihe als schlecht hingestellt. Da helfen auch die fadenscheinigen Begründungen weiter unten nichts, daß jeder Weißpunkt doch glatt unglaubliche 3mal gemessen wurde.
    Weißpunkt messen dauert vielleicht 2 Sekunden. Damit man eine vernünftige Aussage über die Streuung der Meßwerte machen kann, hätte man ehr 100mal messen sollen. Gut, das wird aufwändig... dann sagen wir zumindest 30mal. Dann kann man zumindest eine halbwegs statistisch sinnvolle Auswertung starten. 3mal - soetwas reicht nur um zu gucken, ob man "ungefähr" richtig liegt. Als Bewertung der Meßgeräte selbst ist das aber ungeeignet.


    Nein, dem Test kann ich nicht viel gutes abgewinnen. Es fängt eben damit an, daß ein "nicht gutes" Display herangezogen wurde und geht dann über die Voreingenommenheit, da ein Gerät defekt war bis hin zur falschen Handhabung (so fest aufdrücken, daß die Saugnäpfe greifen).


    Da ist einfach zu viel bedenklich oder gar falsch.


    Außerdem: Wide Gamut Monitore wurden, wie gesagt, nicht berücksichtigt.

    Von dem Test, den man ja leider nicht mal kostenlos überlfliegen kann, habe ich auch schon gehört. Scheint mir allerdings zumindest zweifelhaft zu sein, da zumindest das Spyder 2 für wide gamut Displays ungeeignet ist und somit wohl kaum besser sein kann als das i1 Display 2. Zudem wurde schon in einem anderen Thread erwähnt, daß die Preise, die zur Zeit des Tests für das i1 Display "2" angegeben wurden, ehr zum Display 1 passen, was ebenfalls die schlechten Ergebnisse begründen könnte.


    -----


    Biges: I am in doubt about the results of the test within this magazine because of several aspects that have already be mentioned in another thread.
    In this test the Display 2 received very low scores. On the other hand the Spyder 2 received very high marks.
    If you consider that the Spyder 2 is not able to calibrate wide gamut displays correct something has to be odd with this test.
    The combination of Monitor, Colorimeter and Software seems to be quite important. The colorimeter has to be able to detect the full gamut of the monitor, the software has to detect the colorimeter (knowing the characteristics of this device) and the software should know the monitor to correct the look up tables as good as possible - maybe even within the monitor ("true" hardware calibration).



    Just during the last few days I calibrated my monitor for two different computers that are both connected to the screen. One uses the Spectraview II software, the other one uses the Spectraview Profiler Software.
    Both calibrations are somehow different but I can't describe the differences. Sometimes the Profiler 4 produces an extraordinary neutral greyscale, sometimes it looks a little bit different. ?(
    I still prefer the calibration result with the Spectraview II Software that even takes less time and seems to produce results within a smaller variation range.


    On the other hand the DeltaE values are smaller when using the the Spectraview Profiler 4 - at least when the colorimeter had some time for warming up.
    *sigh* It's hard to decide which one is really better.

    Biges:
    I don't know which one is better but the Gretag LT is "known good".



    According to you monitor selection problem: So I had luck to buy one of the good NECs. No dead (sub)pixels or any other display problems. Just the little noise that does not matter because of the loud computers. :)


    NEC just wants to sell the original Spectraview models. Well, somehow I can understand them. On the other hand it's one of the most important features of the 2690...

    Hallo!


    Bin ich hier eigentlich im richtigen Thread "Vorschläge" stand da als Beschreibung... Wenn nicht, einfach verschieben. Danke. :)



    Wie sähe es denn mal mit einem Vergleichstest von Colorimetern aus? Gerade jetzt, wo auch das Spyder3 den Markt etwas aufmischt und die Schwächen des Spyder2 bezüglich wide gamut Displays nicht mehr aufweisen soll, wäre es doch mal recht interessant zu sehen, welches Colorimeter überhaupt Wide Gamut Displays am besten ausmessen und profilieren kann.


    Allerdings sollte man sich dafür u.U. professionelle Unterstützung mit ins Boot holen. Ist nur die Frage, wer dafür geeignet ist, oder ob die Prad-Redakteure selbst genügend Spezialwissen haben, damit sie eine Profilierung auch wirklich beurteilen können - irgendwie müssen die ja unabhängig voneinander möglichst neutral untersucht werden. (Farbkorrektheit, Farbraumumfang, etc)


    Nunja, ich würde mich auf jeden Fall freuen, wenn mal ein Test in diese Richtung in Angriff genommen würde. Natürlich anhand eines wide gamut Displays mit möglichst großem Farbraum (LED-Backlight...)

    Daher würde ich mal gerne einen Vergleichstest zwischen Colorimetern sehen! Und zwar nicht nur "Handhabung" und Softwareumfang, sondern eben Qualität der Kalibration, Wide Gamut-Umsetzung etc.


    Eventuell müsste ich dann ja mein Display2 durch ein Spyder3 ersetzen... *schulternzuck*


    Also das Display2 ist m.E. nach gut. Auch andere Grafiker hier im Forum sagten schon, daß die Kalibrationen ihnen gefallen (die werden es wohl wissen), aber ein Testbericht wäre trotzdem etwas feines. Letztens habe ich ein Spyder3 im TV gesehen und das schien viel mehr Sensoren auf der Unterseite auzuweisen. Mehr Sensoren = mehr lichtquanten = mehr Signal = geringerer Meßfehler
    (diese Überlegung gilt nur bei gleicher bzw gleichwertiger Technik).


    Wenn jeder einzelne Sensor natürlich deutlich schlechter ist, dann kann das auch ganz anders aussehen. *schulternzuck* Ein Test muß her!

    NEC says it in the README from its own Spectraview II software:



    "NEC LCD2690WUXi, LCD3090WQXi, LCD2180WG-LED displays and Datacolor Sypder2 color sensor:


    * The Datacolor Spyder2 color sensor has been tested with the the NEC LCD2690WUXi, LCD3090WQXi and LCD2180WG-LED displays and found to cause inaccurate measurements when measuring the color primaries. This is due to the wide color gamut aspect of these displays. This may result in an inaccurate calibration and ICC Profiles to be generated. Using this color sensor is not recommended with these displays. The Datacolor Spyder 3 has improved measurement performance for these displays.
    "

    thomo:
    The Spyder 2 is not able to recognize all the colours of a wide gamut display. So it's not just a matter of the software: The calibration device has to be able to detect the full spectrum of displayed colours.
    Nevertheless the software has to add corrections as well as you already said.


    Biges:
    I "enjoy" the oversaturated colours in applications and games. ;)


    Most of the time it isn't all that bad. FireFox3 should resolve this problem. Non-colour-critical applications can't apply colour profiles (and don't have to... who cares if an highlighted cell on an excel sheet looks a little bit more saturated?). Colour critical applications use profiles (Paint Shop Pro / Photoshop) and games... well, sometimes the better saturation ins a benefit! In Joint Ops the plants look a little bit too green but still acceptable just the heads up display (HUD) is a little bit extreme (bright green - really green... i mean GREEEEEN!). Nevertheless that's just the HUD.
    If you play C&C3: Compared to my IBM T42p Notebook everything just looks more vivid. NOD is red and not just rusty. The environment (map, ground) looks better.
    I'm playing Assassins Creed for some time and can't complain about the colours. Everything looks just natural.
    Just watching cartoons on TV may blast you away. When the monitor was new I watched (you may laugh now) Spongebob. The colours will knock you down. But there are options in every player to reduce saturation. I'd like to find a player that uses colour profiles...


    So to sum it up:
    In games it's no problem for me. It depends on the game that you play because 100% pure red (255,0,0) and pure green areas will stick out.
    These effect will even be enhanced after a calibration. At least that was the case when I calibrated the monitor the first time: Red and green got more intense.
    Desktop: Well, there is nothing worth to be calibrated. I enjoy the vivid colours.
    Movies: I connected a second computer to my display and inserted my TV-card there. That offers the benefit of an independend calibration (more brightness). The Saturation can be limited in the TV / Video application.


    Many films do not need these limitations. Skin colours are realistic.


    Oh: The NTSC colour space is almost identical to the AdobeRGB. PAL/SECAM is almost identical to sRGB. But which one is "right" for a movie?



    So it's at least worth to think about displaying the colours at the maximum possible colour space.


    Most of the time it's OK to don't limit anything. Just TV-Commercials use extreme colours.

    I doubt that there is nothing like a "PERFECT" screen. Not from NEC nor any other manufactor.


    sRGB: I read that the sRGB-Settings were incorrect.



    A colorimeter / calibration probe is a good investment.


    The Gretag EyeOne Display II is known good. The Display LT is the same hardware but with a smaller software bundle (doesn't matter if you have the SV-II Software).
    The Spyder 3 is the first Spyder that may be used with a wide gamut display. I don't know if it is better or not.

    Looking from left to right will cause in a greenish-colour. ;)
    That's caused by the IPS-panel and the anti-glare surface. But you should look straight on the screen. It's a non-issue.


    I've heard that the new model can't be switched to SV but that it can also be calibrated by the SVII Software.


    My 2690 (and many more) need the SV-Mode only for the "Spectraview Profiler" Software. It was never needed for the SV-II Software.


    Nevertheless I can't guarantee that new 2690s will be calibrated with the SVII Software as I don't own one of the new ones myself.

    Biges:
    I guess that there are a lot of people who can understand and answer in english as well. :)


    The newest 2690 I heared from has been produced in January or February 2008 and still emits the noises.


    My 2690 has 2301 power-on-hours. All I can say is that the noises aren't that bad at all.
    Only if you have a completely silent PC in a silent room you may/will notice it.
    My fridge is louder.


    Nevertheless the noise may vary from monitor to monitor and it may depend on your settings (brightness, etc).

    Neiiiiiin!


    OK... Nimm Dir ein Karriertes Blatt und such Dir zwei Zeilen aus. In einer Zeile markierst Du 25 hintereinander liegende Kästchen, in der darunter 19.


    => Das ist der Vergleich zwischen den beiden Auflösungen 2560*1600 und 1920*1200.


    Nun stell Dir vor, daß Du diese 19 Kästchen "gleichmäßig" auf die 25 verteilen sollst. (Schreibe also kleine Zahlen von 1 bis 19 in die 25 Kästchen, aber so, daß die 1 ganz vorn und die 19 im letzten landet)
    Beispiel:
    1-2-3-_-4-5-6-_-7-8-9-_-10-11-12-_-13-14-15-_-16-17-18-_-19


    Wenn Du dieses machst, dann stellst Du fest, daß immer wieder, nämlich 6 mal, Lücken auftreten.
    Es wird nichts abgeschnitten, es fehlt etwas!
    Diese 6 Lücken müssen auf dem 30" "sinnvoll" gefüllt werden, damit Du keine schwarzen streifen hast. Wenn also zwischen 3 und 4 eine Lücke ist, dann gibt es mehrere Möglichkeiten: Entweder steht da hinterher
    1-2-3-3-4-5-6-6-7-8-9-9-10-11-12-12-13-14-15-15-16-17-18-18-19
    oder
    1-2-3-3,5-4-5-6-6,5-7-8-9-9,5-10-11-12-12,5-13-14-15-15,5-16-17-18-18,5-19
    Beide Varianten füllen 25 Kästchen, aber es wiederholen sich entweder Pixel oder es werden zwischenwerte eingefügt.
    Abgeschnitten wird nichts.


    Als Alternative kann man 19 in 25 mit Rand darstellen:
    _-_-_-1-2-3-4-5-6-7-8-9-10-11-12-13-14-15-16-17-18-19-_-_-_
    Es sind halt 6 unbenutzt, aber die 19 sind zusammenhängend.
    Das ist dann die Darstellung der 1920*1200 bzw 1920*1080 auf dem 30" Monitor mit 2560*1600, bei der ein Rand schwarz bleibt. Das Bild ist dann kleiner als 30", dafür aber scharf.



    Ich hoffe, daß es nun klarer geworden ist.

    @obmantuto:
    Ein TFT-Monitor hat eine feste anzahl an Pixeln bzw "Bildpunkten". Diese Anzahl bestimmt die Auflösung des Monitors.


    Beim 30" Monitoren sind das meistens (immer) 2560*1600.
    Der Monitor hat also 2560 Spalten und 1600 Zeilen.


    Nur bei dieser Auflösung ist das Bild wirklich scharf und die volle Fläche ausgenutzt. Bei allen anderen Auflösungen ist es entweder unscharf durch Interpolation einer geringen Auflösung auf diese hohe Auflösung, oder es wird nicht der gesamte Bildschirm ausgenutzt.


    HD-Filme haben eine Auflösung von 1920*1080. Das ist weniger als 2560*1600.


    Damit Du HD-Filme auf der vollen Größe des Monitors darstellen kannst, müsste das Bild interpoliert werden. Es fehlen 640 Bildpunkte in der Breite und 520 Bildpunkte in der Höhe, die erst künstlich eingefügt werden müssen. Dafür gibt es aber keine Daten im Film, also muß die Grafikkarte oder der Monitor "raten", was denn am besten an welche Stelle gehört.


    Bezüglich der Unterstützung mußt Du bedenken, daß HDCP, also der tolle Kopierschutz der Filmindustrie, auch nicht für jede erdenkliche Auflösung gedacht ist. Somit ist die Auflösung bei HD-Filmen so oder so begrenzt.



    Wieviele Grafikkarten? EINE.
    Natürlich sollte das eine recht leistungsstarke sein, je nachdem, was Du auf dem Monitor sonst noch machen möchtest. Für HD-Material reichen wohl alle aktuelleren, am besten die mit besonderen Beschleunigungsfeatures für HD-Filme, die außerdem Bild-in-Bild bei Blu-Ray unterstützen. (Ich glaub die Nvidia 9600GT kann das ohne Probleme - aber schau am besten selbst nochmal nach). Von ATI sind da wohl HD3850 und größer geeignet.
    Wenn Du natürlich auf so einem Monster in der Auflösung spielen willst, dann greif lieber gleich zu den Top-Modellen. 9800GTX, oder gar diese merkwürdichen GX2 bzw X2 Karten.

    Surfer:
    Soweit ich weiß, ist sein Monitor das trotzdem..


    Ich kann auch die Wellenbewegungen bestätigen, da wir die Monitore einfach mal nebeneinander gestellt und verglichen haben. Selbst als sein Monitor an einer online USV (doppelwandler - reiner Sinus am Ausgang!) angeschlossen war, waren diese Effekte zu sehen. Wir haben es hier mit zwei vollkommen unterschiedlichen Rechnern (also zusätzlich zu seinen) getestet.


    Habe wohl echt Glück mit meinem Gerät gehabt. :)

    Nunja, wenn Dell sich einfach gedacht hat: "Windows typisch sind 60, 75 und 85Hz", und für jede Bildwiederholrate einfach, egal ob die verbaute Hardware es nun könnte oder nicht, ein "out of sync" rausgibt, dann ist es halt so.


    Ein bekannter hat einen Viewsonic 20" TFT. Mit manchen ATI-Grafikkarten bekommt er beim Booten oder auch in der DOS-Shell auf Vollbild ebenfalls kein Bild. Der Monitor zeigt nichtmal "out of sync" oder ähnliches an, der schaltet einfach in den Standby. Der Support sagt einfach, daß die ATI-Karten teilweise eine Wiederholfrequenz benutzen, die angeblich nicht ganz dem Standard entspricht und das kann der Monitor dann halt nicht.


    Tja, eine dieser Grafikkarte nutze ich jetzt und bei mir geht's wunderbar. Es werden auch übliche 59,9Hz angezeigt. Tja... was soll man da sagen?! Wenn die Firmware im Monitor meint, daß sie es nicht kann, dann geht es halt nicht.


    MANCHMAL ist es aber auch so, daß der Support schlechter weiß was funktioniert, als das Gerät selbst. Habe ich auch schon erlebt. Also eventuell funktionieren sogar 72Hz.


    Ich habe gerade mal nachgeguckt, was meine Grafikkarte kann (unabhängig vom Monitor). Dort steht erst bei 1280*960 ein Eintrag mit 72Hz. Bei den Auflösungen darüber gibt es nur 60Hz, 70Hz und 75Hz, ab 1360*768 (komische Auflösung) nur noch 60Hz.
    Und bei genaueren Hinschauen gibt's 72Hz auch nur bei ganz wenigen Auflösungen: 1024*768, 800*600, 640*480
    Bei 720*576 gibt es explizit 59Hz und natürlich 60Hz und 70Hz


    Also: Es gäbe, zumindest mit meiner ATI Grafikkarte, auch ein Problem, wenn der Monitor 72Hz könnte: Die Grafikkarte kann keine vernünftige Auflösung mit 72Hz darstellen. Weder 720*576 (das ist doch für DVDs die passende, oder?) noch 1920*1200 - geschweige denn die Auflösung eines 30".



    [Zum selbst nachschauen: Optionen von Anzeige, Erweitert, Grafikkarte, Alle Modi Auflisten...]


    Dann hat sich die Diskussion vielleicht eh mit den 72Hz erledigt, wenn es der Treiber nicht schafft...

    Naja, das ist so pauschal wohl nicht richtig.
    Siehe z.B.:


    Die krummen werte sind möglich. Bei den HDV-Produktionskameras gibt es sowohl welche, die 23,98 Bilder/s aufzeichen, als auch welche, die 24 aufzeichnen.
    In den offiziellen HDV-Spezifikationen steht nur "24p" als optional, ohne genaue Angabe, ob es sich nun um 23,98Hz oder 24Hz handelt.


    Ich gehe doch stark davon aus, daß auf BDs alles auf glatte 24Hz gesetzt wird. Also Bruchteile eines Prozentes zu schnell abgespielt wird. ;)


    Für Gegenbeweise mit passender Quelle bin ich natürlich dankbar.


    Achja, es gibt auch noch Optional p25, p50 und p60.


    Schade eigentlich, daß nicht ALLES gleich auf p60 gesetzt wurde. 25/24 Bilder/s sehe ich MANCHMAL, je nach Tagesform und Szene, ruckeln. Zumindest im Kino fällt mir das immer mal wieder auf. Jaja, ich weiß - ab 25Hz kann man normalerweise nicht mehr zur flüssigen Bewegung unterscheiden. Ich sehe aber auch 75Hz flimmern und bei guten Tagen sogar 85Hz, wenn der CRT nicht zu träge ist. Mir sind sogar schon TFTs begegnet, bei denen die Hintergrundbeleuchtung flimmerte.... schlimm soetwas. *g*

    Wenn da das steht, dann wird es darauf hinaus laufen, daß vermutlich 60, 70, (72,) 75, 85Hz bei bestimmten Wiederholraten funktionieren werden.


    Warum nun 71,91Hz besser sein soll als 72 ist mir jedoch "etwas" schleierhaft.


    Zur Not würde ich einfach mal dazu raten das Handbuch herunterzuladen und nachzulesen. Wenn's da nicht steht, dann den Support anschreiben und nachfragen. "Das will ich wissen bevor ich kaufe. Bitte schicken Sie mir eine verbindliche Aussage." Nur G-E-N-A-U nachfragen bei welcher Auflösung mit welcher art der Verbindung zum PC welche Wiederholrate funktioniert.


    Wenn die nur sowas schwammiges antworten wie "56 – 86 analog und digital", dann reden die sich hinterher noch raus mit: "Joa, also das gilt eigentlich nur analog und digital nur 60 und 70Hz bei 1024x768 und 1280*1024. Sonst nur 60Hz".


    Bevor hier nun munter rumgeraten wird: Nachlesen (Handbücher gibt's doch eigentlich immer zum kostenlosen runterladen) oder den Support anfragen!