Posts by derGhostrider

    Du hast den Monitor über D-Sub angeschlossen anstatt über HDMI, richtig?


    Als erstes würde ich Dir empfehlen dieses zu ändern! Es gibt günstige HDMI -> DVI-D Kabel zu kaufen. Damit hast Du dann keine Probleme mehr, was die Bildqualität oder Auflösung betrifft. 60Hz sind dann normal und es gibt auch kein "Auto-Adjust" mehr als Einblendung, was typisch für die analoge Bildzuspielung ist.


    Mit viel Glück, muß aber nicht, behebt das sogar das Fiepen vom Gerät.


    Die Frage ist nun primär, wie laut das Geräusch ist. Auch das Fiepen vom Netzteil des PCs. Wenn diese Geräusche zu laut sind und somit auch aus deutlich über 1m Entfernung noch gut hörbar sind unter "normalen" Bedingungen, dann solltest Du eventuell mal den Hersteller kontaktieren.


    Du kannst eigentlich beruhigt davon ausgehen, daß durch die Einstellungen unter Vista nichts beschädigt wurde. Die maximale Bildwiederholrate wird vom Bildschirm übermittelt und dann von Windows automatisch erkannt - auch bei analogen Kabeln. Wenn die Frequenz zu hoch ist, blenden Monitore i.d.R. auch einfach eine passende Fehlermeldung ein, anstatt daß etwas kaputt geht.

    Ich hoffe doch sehr, daß Du die Monitore per DVI-D angeschlossen hast, also digital. Bei analogem Anschluß (D-Sub HD15, auch bekannt als "VGA-Anschluß") wird das Bild automatisch matsche. Die Kabel sind dann nicht mehr in der Lage die Signale sauber zu übertragen, da durch die höheren Auflösungen auch eine höhere Bandbreite benötigt wird (höhere Frequenzen der Signale auf dem Kabel) und dafür reichen analoge Übertragungsmethoden einfach nicht aus.


    Mit das wichtigste ist also ein DVI-D Kabel zu verwenden.


    Ansonsten sollte, vor allem ohne Cleartype, die Schrift dann gestochen scharf sein, egal wie billig der Monitor auch war, wobei DELL-Monitore ja auch schon recht ordentlich sind und ehr nicht zu den "Billigheimern" gehören.


    Eine scharfe und somit pixelgenaue Darstellung muß möglich sein.


    Also beantworte bitte erstmal die Frage, wie der Monitor am PC angeschlossen ist.

    Es gibt keine Monitore, die Hochglanzdisplays haben, aber hardwarekalibrierbar sind.


    Alle Geräte im professionellen Segment sind MATT und das aus gutem Grund. Wieviel willst Du überhaupt investieren? Offiziell hardwarekalibrierbare Geräte kosten wohl vierstellige Beträge:
    NEC Spectraview 2490WUXi
    Eizo CG242W, CG241W und etwas weiter unten angesiedelt: CE240W...
    LaCie 324 oder natürlich der gute 724
    Quato IP 240ex, IP 240ex LED, IP 242 LE
    HP LP2480zx


    Eigentlich hört es damit auch schon wieder auf. Je nach Monitor bekommst Du dann ein Kolorimeter gleich dabei oder mußt das eventuell zusätzlich erwerben.

    Öffne mal diesen Monitortest:


    Wenn Du mit der Maus in den oberen Bereich des Browserfensters gehst, dann blendet sich ein Menü ein. Dort kannst Du erstmal rechts oben die Info-Einblendung ausschalten. Als nächstes kannst Du unter "color range" Dir einige Verläufe anschauen: Schwarz-> Weiß, Schwarz -> Rot, etc.


    - Treten dort auch die Abstufungen auf?
    - Hast Du ein Farbprofil für den Monitor geladen?
    - Treten die Abstufungen auch auf, wenn das Farbprofil NICHT geladen ist?

    brudaswen:
    Schön zu lesen, daß es so einfach zu beheben war.


    mic:
    Als Testgerät habe ich den, wie so häufig, einfach neben den anderen Monitor Gestellt und die beiden Anzeigen "unabhängig" voneinander konfiguriert.
    Bei normaler Arbeit gibt das m.E. den größten Nutzwert, da man auf jedem Monitor Anwendungen "Maximieren" kann (also z.B. die TV-Anwendung), während man auf dem anderen Monitor im Netz surft, Bilder bearbeitet, etc.
    Clone-Modus lohnt nur, wenn man etwas anderen vorführen möchte. Und den Desktop "strecken", also so, daß der gesamte Bereich als ein Monitor angesehen wird, halte ich für ganz schlecht. "Maximiert" wird jedes Fenster über beide Monitore gestreckt und Mittig hat man die Rahmen - ausgerechnet im primären Arbeitsbereich. Auch bei Spielen, die soetwas unterstützen, würde ich dann dringend zu drei Monitoren raten, damit die Rahmen eben nicht störend in der Mitte sind.

    Tomcat:
    Du könntest mal versuchen in den erweiterten Einstellunges Deines Grafikkartentreibers eine selbst definierte Auflösung einzurichten, die über andere Schwarzschultern und Blanking-Intervalle verfügt. Damit könntest Du mit etwas Glück das Problem bereits umgehen.


    Ansonsten gibt es Wunderbare Kabel, die an einer Seite einen HDMI-Stecker und an der anderen einen DVI-Stecker haben. Kosten nicht die Welt und man muß mit keinem Adapter rumhantieren.

    Wenn der NETZSCHALTER (Wippschalter hinten am Gerät) umgelegt wird, dann verbraucht der Monitor NICHTS. Kein Wunder, denn der Stromkreis ist dann nicht mehr geschlossen.
    Wenn Dein Gerät dann noch etwas anzeigt, dann ist entweder der Schalter kaputt oder Dein Gerät zeigt offenkundig Mist an.



    Das "Eumig PM300" konnte ich nicht bei Google finden, also auch keine Informationen über das Gerät selbst.



    Die Unterstellung, daß wir irgendwelche tollen Handverlesenen Geräte der Hersteller bekommen, kannst Du vergessen. Dieses Gerät wurde von uns ganz normal, scheinbar als Privatperson, GEKAUFT. Das kam nicht vom Hersteller, es kam von einem ganz normalen Händler, der keine Ahnung hatte, daß es für einen Test verwendet wird.



    Wenn Du nun sogar schon ZWEIMAL mit Deinem Gerät merkwürdig hohe Werte gemessen hast, bist Du noch nicht selbst auf die Idee gekommen, daß Dein Messgerät nichts taugt?


    Du solltest da ansetzen. Geh zu Conrad, kauf Dir ein "Energy Check 3000" oder "Energy Monitor 3000". Diese Geräte wurden mehrfach getestet und für gut befunden. Es gibt REIHENWEISE sogenannte Stromkostenmessgeräte, die den Namen nicht tragen dürften, da sie reine Fantasiewerte anzeigen, aber nichts, was mit der Realität zu tun hätte.

    Bei den bisherigen Messungen wurde "mal" die Reaktionszeit mit einberechnet, mal Reaktionszeit + x, mal wurde etwas ganz anderes gemessen, was aber nichts mehr mit der Reaktionszeit oder dem Input LAg zu tun hat, etc...


    Und in Ausnahmefällen wurde Input Lag + Reaktionszeit und mal "Input Lag" gemessen, zumindest so genau, wie es mit Stoppuhren überhaupt möglich ist.



    Das wird dann aber im Artikel geklärt.


    (Ich müsste diese ganzen Beiträge hier alle verschieben, da es extrem OT ist...)

    Das Tool SMTT befindet sich sozusagen noch in der Entwicklung. Es gibt inzwischen lauffähige Versionen für Windows 2k, XP (32bit), Vista 32bit und Vista 64bit, die ich bisher nur für das PRAD-Team zur Verfügung gestellt habe.


    Dieses Programm ist nur für den privaten, nicht kommerziellen, Einsatz kostenlos. Für kommerzielle Verwendungen, sei es nun in Unternehmen oder für sonstige Testberichte, ist das Tool nicht kostenlos und muß bei mir lizensiert werden.
    Ich bin auch derjenige, der die Programme programmiert (verbrochen) hat.


    Für die "Input Lag" Bestimmung brauchst Du zudem mindestens einen CRT, eine Kamera und natürlich ein bisschen Geduld.


    Ich kann Dir aber schon jetzt sagen, daß es für Dich unter Umständen schwierig sein wird, sinnvolle Ergebnisse zu erzeugen. Vermutlich möchtest Du doch mit "V-Sync an" gleiche Bildinhalte (flimmern?) exakt synchron darstellen, oder nicht?
    Das sollten wir vielleicht lieber per PN oder Mail klären, da es ansonsten ein Vorgriff auf einen Artikel darstellt, der veröffentlicht werden wird.


    ===============


    Update:
    Der Artikel ist nun online:
    News zum Artikel:
    Artikel selbst:

    Jedes Wahrnehmungsverhalten ist anders. So sehe ich persönlich im Kino, je nach Szene, die 24Bilder als extrem störendes geflimmer und somit auch, daß die Bewegungen eben nicht wirklich flüssig sind. Das hängt aber recht stark von den Lichtverhältnissen der jeweiligen Szene und der Kameraführung ab. Du darfst aber auch nicht vergessen, daß es bei Input Lag nicht darum geht ein Bild nun vollständig wahrzunehmen, sondern nur darum, daß die Bildausgabe insgesamt ein bisschen später ankommt, als sie müsste. Mit der Bildwiederholrate an sich hat das alles gar nichts zu tun.
    Stell es bei einem Computerspiel nun mal übertrieben so vor: Der Klang wäre ohne Verzögerung und der Monitor würde 1s hinterher hängen. Dann hörst Du "PENG" und 1s später siehst Du erst, daß Du bereits erschossen wurdest.
    Es geht den Leuten halt darum, daß sie meinen, daß bei einem Test, der bisher z.B. 16ms Lag anzeigte, weniger Reaktionszeit "übrig" bleiben würde, bevor der andere reagiert. Die Reaktionszeiten der Menschen sind deutlich länger und ebenfalls unterschiedlich, aber der Entscheidende Zeitpunkt ist eben der, an dem man den optischen Reiz erkennt, auf den man reagieren soll.


    Auf biologische oder subjektive sichtweisen wurde bei dem Test wissentlich verzichtet. Es gab bereits mehr als genug, was objektiv untersucht und erklärt werden musste.



    Das Problem ist, daß vor allem die bisher verwendeten Testmethoden "grober Unfug" sind und auch der Wikipedia-Artikel zum Thema "Input Lag" grundlegend falsche Annahmen enthält (es gibt einen englischen Input Lag Artikel auf Wikipedia). Als Endeffekt bekommt man auch falsche Werte für den Input Lag. So ergibt eine Messung natürlich herzlich wenig Sinn. Ebenso wird damit dann auch erklärt, warum verschiedene Testseiten vollkommen unterschiedliche Ergebnisse für den Input Lag ermittelt haben, wenn sie doch eigentlich einen baugleichen Monitor untersuchten.



    Zudem ist der "input Lag" eines TFTs nur eine Verzögerung unter vielen bei der Bildausgabe eines PCs.



    Was ich besonders lustig finde, sind die Leute, die TFTs wegen z.B. 12ms Input Lag als absolut Spieleuntauglich klassifizieren, dabei jedoch im Grafikkartentreiber ein "Prerendering" von 3 Frames eingestellt haben. Mit anderen Worten: Teilweise berechnet die Grafikkarte DREI Bilder im Voraus, die aber bei plötzlichen Veränderungen natürlich falsch sind und dennoch teilweise erst abgespult werden. 3* 16,6ms, also fast 50ms, sind dann doch recht viel.


    ------------


    Edit: Zum Thema "Reaktionszeit", also der Schaltzeit der Pixel:
    Jein. Es wird zumindest gefragt, ob dies nun zum Input Lag gezählt werden sollte oder nicht. Schließlich ist dies eine Größe, die ebenfalls dazu beiträgt, daß es eine Zeit lang dauert, bis der endgültige Bildschirminhalt in seiner endgültigen Intensität dargestellt wird. Ich persönlich halte aber "Input Lag" für etwas grundlegend anderes. Der Input Lag beschreibt die Zeit, die zwischen Signaleingang zu "Ansteuerung der Transistoren" vergeht. Genau danach kommt dann die Reaktionszeit ins Spiel.


    Bei THG gibt es genügend Berichte zum Thema Reaktionszeit, die zeigen, daß die super niedrigen Angaben der Hersteller eh in der Regel nicht passend sind oder eben nur bei ganz speziellen Farbwechseln passen.
    Der Artikel zum Thema Input Lag behandelt nichts, was man bereits irgendwo anders nachlesen kann, sondern nur neues.

    1. Gammawert sRGB:
    Der Gammawert bei sRGB ist weder 2,2 noch 1,8. Wenn man genau ist, dann ist der irgendwo in der Nähe von 2,2, wie SailorMoon aber schonmal richtiger Weise sagte - er ist hier unser Farb-Gott - weicht der Gammawert vor allem für kleinere IRE-Werte stärker von 2,2 ab.
    Nun ist halt die Frage, was da wie kalibriert wurde. Wenn der Monitor z.B. recht gut 2,2 trifft, aber dann auf sRGB per Farbprofil gebogen wird, könnte das natürlich in den dunklen Werten zu verstärktem Banding führen.
    Dann würde ich vielleicht lieber Gamma 2,2 wählen.


    2.

    Quote

    wenn man jedenfalls einen blick ins netz wird, scheinen zumindest die wenigsten mit banding
    bei kalibrierten monitoren dieses models probleme zu haben - vllt. ist mein monitor schlichtweg
    werksseitig zu weit weg von den passenden farbwerten...


    Ja, kann sein. Andererseits habe ich schon Verwendungen von "Kalibriert" gesehen, bei denen sich selbst mir die Fußnägel bis zum Knöchel hochgerollt haben.
    Es gibt leute, die bezeichnen den Monitor, sobald sie Pi*Daumen-per-Augenmaß Einstellungen vorgenommen haben, als Kalibriert. Andere übernehmen die Einstellungen der Grundfarben, die sie irgendwo aus einem Test gefischt haben, und sagen dann, daß ihr Monitor kalibriert wäre.


    Da muß man immer sehr genau unterscheiden, was die Leute schreiben und was sie tatsächlich meinen.


    Und dann gibt es natürlich die Möglichkeit, daß Dein Monitor weiter abweicht, als er idealerweise sollte. Schwer zu sagen, was nun der Fall ist. Solange Du kein passendes Farbprofil für DEN Monitor an DEINEM Rechner hast, würde ich vorsichtig mit der Beurteilung sein.

    Wie SailorMoon schon sagte: Das funktioniert eigentlich immer mit der Spectraview II.


    Das es nicht geht, stimmt in Bezug auf die Spectraview Profiler 4 Software.
    Auch mein Monitor (2690WUXi) lässt sich erst ab dem Zeitpunkt mit der Profiler 4 kalibrieren, an dem ich auf "Spectraview" umgeschaltet habe.


    Dies wurde von NEC bei neueren Geräten sogar verhindert, da es sich rumgesprochen hatte, daß man durch einen Trick aus dem "günstigen" MultiSync einen scheinbar echten Spectraview machen konnte - zumindest so echt, daß die deutsche Software ihn akzeptierte.

    gooly:
    Zudem ist es doch auch wichtig, was Dein Strommessgerät überhaupt anzeigt. Es gibt geräte, die zeigen z.B. die Blindleistung an, die Du jedoch niemals bezahlen musst.
    Hier bei PRAD verwenden wir ein bekanntermaßen recht gutes, wenn auch nicht unerschwinglich teures, Messgerät, welches Wirk- und Blindleistung trennt und auch cos phi anzeigt.


    Energy Check 3000 / Energy Monitor 3000
    Siehe z.B. auch hier:


    Durch das Ausschalten hast Du nur feststellen können, daß kein "Offset" vorhanden ist. Mir sind aber auch "Energiekostenmessgeräte" bekannt, die, vor allem bei geringen Messwerten, nur Schrott anzeigen. Mein eigener Bruder hatte so eines, was von seinem Stromerzeuger empfohlen wurde.
    Unter tatsächlicher Last, wenn der cos phi Wert relativ günstig ausfiel, ist das nicht weiter schlimm. Aber gerade im Stand-By gibt es manchmal solche merkwürdigen Begebenheiten wie wenige Watt Wirkleistung und eine hohe Scheinleistung.
    Es ist also durchaus auch möglich, daß es doch am Strommessgerät lag. Allerdings kenne ich nicht alle Geräte und kann somit auch nicht beantworten, ob Dein Gerät besonders gut ist oder nicht, selbst wenn Du nun den Typ nennst. Vielleicht ist es ja sogar das gleiche, das wir auch verwenden - dann ist mein Hinweis wohl ehr hinfällig, solange Du den Wert aus der richtigen Zeile abgelesen hast.

    Das ist immernoch der gleiche Rechner, die gleiche Graka und auch der gleiche Treiber, der letztendlich den Monitor ansteuert, nur daß zwischendurch noch eine zusätzliche Umsetzung vom "virtuellen Treiber" auf den echten Treiber erfolgt. Die Virtuelle Box ist ja nichts anderes als ein Programm mit eigenem Farbmanagement, welches unter MacOS läuft.


    Nun stell Dir eine dual-boot-Umgebung (Boot-Camp oder ähnliches) vor. Das wäre etwas vollkommen anderes: Anderes OS, anderes Farbmanagement, anderer Treiber.
    EIGENTLICH sollte es im Normalfall dennoch gleich sein. (korrekte und gleichartige Umsetzung der Farbprofile vorausgesetzt) Muß aber eben nicht. In solchen Fällen sollte man immer auf die Probleme verweisen und niemanden in falscher Sicherheit wiegen.

    Ich habe zumindest schonmal eine Zusage für die Veröffentlichung erhalten. Es ist davon auszugehen, daß nun zeitnah die letzten Details geklärt werden. Eventuell muß ich dann nochmal ein paar Stellen anpassen, danach übergebe ich den Artikel samt Bildmaterial, das wird dann nochmal korrekturgelesen und dann natürlich auch gesetzt.


    Gehe also von "ein paar Wochen" aus. Das geht alles nicht so schnell, wie man man meinen könnte. Es geht hier ja auch nicht um eine Seite Text, die man sich in 5 Minuten durchliest. Allein das Setzen von diesem Artikel wird schon reichlich Zeit in Anspruch nehmen, da der Umfang selbst die langen Berichte hier auf PRAD recht deutlich übersteigt.


    Als treuer PRAD-Leser wird man den Artikel aber wohl kaum verpassen können. ;) Also: Keine Sorge. Einfach regelmäßig auf vorbeischauen, dann wirst Du ihn schon sehen.

    Für den ersten Punkt müsstest Du, wenn ich mich nicht irre, Plug & play deaktivieren, so daß Windows eben nichts automatisch macht. Normale Monitore melden sich auch im abgeschalteten Zustand (Soft-Off, Stand-By) noch am PC an, was Dein TV-Gerät offensichtlich nicht macht. Es ist halt nicht als PC-Monitor gedacht und nur ein TV-Gerät.
    Plug&Play würde ich deswegen aber nicht deaktivieren, da das mehr Probleme bereiten sollte, als es löst.


    Zum Videooverlay:
    Das Problem verstehe ich nun nicht so ganz, denn wenn Du Deinen Mediaplayer startest, dann wird der doch für gewöhnlich an der Stelle des primären Displays angezeigt, wo er auch zuletzt war. Das ist dann doch automatisch das TV-Gerät, was somit auch automatisch richtig ist.

    Kurzum:
    Banding, welches durch ein Farbprofil hervorgerufen wird, hat eigentlich nichts mit dem Monitor zu tun.
    Das Banding wird dadurch hervorgerufen, daß innerhalb der LUTs der Grafikkarte Farbwerte verworfen werden und somit einzelne Farbabstufungen zusammenfallen.
    Der Monitor bekommt dann bereits einen Farbverlauf mit Banding übermittelt und muß diesen darstellen.


    Eine Kalibration gilt zudem immer nur für eine Kombination aus Grafikkarte, Grafikkartentreiber und Monitor. Wenn man nun also genau wird, kannst Du ein Profil von Windows nicht unter Linux verwenden. Ebensowenig umgekehrt. Somit ist auch das Farbprofil vom TFT-Shop nicht für Deinen Rechner, Deinen Treiber und Deinen Monitor optimiert, sondern für "einen Monitor".
    Daß es bei Verwendung von Agryll größere Unterschiede gibt, finde ich bedenklich. Allein aus dem Grunde, da es eigentlich der Darstellung unter Windows ähnlich sein sollte. Als ich das Agryll-Projekt noch aus eigenem Interesse verfolgt habe (schon deutlich über ein Jahr her), waren mir aber zuviele ungereimtheiten vorhanden. Das (leider) typische open-Source-Chaos: Jeder meint es besser zu können und macht dann einfach mal so, wie er meint. Ich weiß nicht so recht, was man von den Ergebnissen halten soll.


    Bei CS3 verwundert es mich. Dort vermute ich eine irgendwo nicht korrekt vorgenommene Einstellung.
    Ist das Farbprofil ein Matrix oder ein Tabellenprofil? Ist es V2 oder V4?
    Es könnte nämlich durchaus sein, daß das ein oder andere Programm nur Matrix-Profile umsetzen kann und wenn Du dann z.B. ein (genaueres) Tabellenprofil hast, dann klappt das nicht.
    Windows XP kann wohl auch nicht mit ICC V4-Profilen Arbeiten. Da stellt sich dann die Frage, was FireFox macht und welche Profile Firefox umsetzen kann. Hab's gefunden: Nur V2

    Quote

    Firefox 3.5 unterstützt nur Farbprofile, die durch ICC v2 spezifiziert wurden; spätere Versionen werden Unterstützung für ICC v4 enthalten (siehe Bug 463221).


    Quelle: unter "Bekannte Probleme"


    Es gibt, wie Du sehen kannst, viele Stolpersteine, die zu berücksichtigen sind. so z.B. auch, welche Adaption im Farbprofil verwendet wurde. CAT02, Bradford, etc. Wenn Du dann die passende bei CS3 einstellst, kann es besser aussehen, als wenn Du die falsche wählst.


    Farbmanagement hat viele Fallstricke. Um zu beurteilen, wie der Monitor an sich das Bild darstellen kann, kannst Du eigentlich nur den Monitor auf Werkseinstellungen setzen, alle Farbprofile rausschmeißen und DANN Graukeile betrachten.
    Wenn die dann stufenlos sind, ist alles OK.
    Wenn dann irgendein Farbprofil Stufen einfügt, ist das nicht mehr die direkte Schuld des Monitors. Mir ist kein Monitor bekannt, der ab Werk so perfekt eingestellt wäre, daß eine Kalibration KEINE Anpassungen durchführen muß und somit auch keine Eingriffe in die Farbpaletten stattfinden würden.
    Wenn Du soetwas wünschst, dann brauchst Du einen hardwarekalibrierbaren Monitor mit programmierbaren 10bit oder besser 12bit LUTs. Da ist soetwas dann möglich.