Posts by plinz

    Wenn ich das richtig verstehe, dann würde ich mich beim Bearbeiten des Bildes nur im sRGB Farbraum bewegen. Unabhängig davon wie groß der Farbraum meines Monitors ist. Natürlich unter der Voraussetzung, dass mein Monitor einen größeren Farbraum besitzt.


    Wenn ich beabsichtige nur sRGB zu erstellen, dann ist ein größerer Farbraum zwar kein Hindernis, aber ich würde wohl unnötig mehr für dieses Feature zahlen.

    Da brauche ich scheinbar mehr Erklärung.


    Klar ist mir, dass zwischen den Farbräumen transformiert wird. Das geht aber nicht ohne Verluste.


    Bei Wiki finde ich z.B. folgende Aussage:

    "Bei der Umrechnung von einem größeren in einen kleineren Farbraum werden die Farben, die außerhalb des Zielfarbraums liegen, auf dessen Hülle abgebildet (Clipping)."


    Das bedeutet für mich, dass ich im Augenblick der Bearbeitung im sRBG Farbraum sein muss. Bin ich z.B. im besagten 120% sRGB Farbraum, dann führt es zu einem schlechteren Endergebnis, wenn sRGB der Zielfarbraum ist.

    Scheinbar doch nicht verständlich.

    Ich versuche es mal so.


    Welchen Vorteil bietet mir einen Monitor mit 120% sRGB? Oder ist es sogar ein Nachteil?


    Folgende Überlegung:

    120% sRGB bedeutet für mich, dass der sRGB Farbraum vollständig abgedeckt ist und darüber hinaus noch mehr Farben dargestellt werden können.

    Klingt erstmal toll, aber nun bearbeite ich ein Bild mit Rosen, Kirschen und Chilis.

    Es liegt viel Rot außerhalb des sRGB Farbraums.

    Auf meinem Monitor sieht es toll aus, aber das Bild dürfte auf einem Monitor mit 100% sRGB Abdeckung wohl schlecht aussehen, da das Rot, welches jenseits des sRGB Farbraums liegt, auf das äußerste Rot des sRGB Farbraums runtergesetzt wird.

    Um also ein gutes Ergebnis zu erzielen müsste ich doch den 120%igen Farbraum auf 100% einschränken und mich erst dann an die Bildbearbeitung machen.

    Oder verstehe ich das falsch?

    Ich habe einige Fragen zum Thema Farbraum und Kalibrierung auf die ich bisher keine Antwort finden konnte.

    Das Thema erscheint mir nicht ganz leicht, aber ich würde es gerne verstehen.


    Gehen wir einmal davon aus, dass ich einen perfekt eingestellten Monitor ab Werk haben und dieser genau 100% sRGB abdeckt. Hiermit erzeuge ich ein Bild.

    Nach meinem Verständnis würde dann eine Person B, die mit einem Monitor der ebenfalls den sRGB Farbraum zu 100% abdeckt, das (nahezu) gleiche Bild sehen.


    1. Deckt mein Monitor den Farbraum nur zu 95% ab, dann kann auch Person B nur ein 95% genaues Bild sehen.

    2. Genauso ergibt sich 95% Genauigkeit, wenn ich 100% aber Person B den Farbraum nur zu 95% abdeckt.


    Nun gibt es Monitore mit mehr als 100% Abdeckung. Nehmen wir an, dass ich einen mit 105% besitze.


    3. Ich 105%. Person B 100%. Erreichen wir hier 100% Genauigkeit oder werden meine 105 auf 100 runtergebrochen und es kommt zu Ungenauigkeiten.

    4. Anders gefragt: Welchen Vorteil habe ich von Monitoren mit z.B. 130% Abdeckung? Ist es vielleicht sogar ein Nachteil beim Erzeugen von Bildern, die dann auf einem Monitor mit "nur" 100% betrachtet werden?


    Kommen wir nun zur Kalibrierung


    Ich kann den Farbraum zu 100% abdecken, der Monitor ist aber falsch eingestellt und kommt nur auf 95%.

    5. Per Hardwarekalibrieung könnte ich diesen wieder auf 100% einstellen ohne Nachteile.

    6. Per Softwarekalibrierung könnte ich diesen auch wieder auf 100% einstellen? Nach meinem Verständnis gleiche ich da per Software aber nur eine Verschiebung aus und mir gehen dadurch Informationen verloren, so dass ich keine 100% Genauigkeit mehr erreichen kann, aber immer noch besser bin als die 95% ohne Kalibrierung.


    Was ändert sich, wenn ich einen Monitor mit 105% Farbraumabdeckung besitze? Der Monitor falsch eingestellt ist und tatsächlich bei 95% liegt.


    7. Per Hardwarekalibrieung sollte ich erneut auf 100% einstellen können ohne Nachteile.

    8. Wie ist es bei der Softwarekalibrierung? Dient hier der 105% Farbraum als Reserve, sodass ich wieder auf 100% ohne Nachteile komme?


    Ich hoffe das war verständlich.

    Bis 200€ greife ich zu, bis 350 würde ich auch locker mitgehen, aber vielleicht auch noch etwas auf ein Angebot warten/hoffen. Aber darüber muss der Monitor mich halt schon überzeugen. Ich habe ja den Wunsch mal bei einem 4k@120Hz+ mit allem Pipapo zu landen, aber bis es da eine Auswahl gibt und diese auch erschwinglich ist dauert es wohl noch etwas. In 2-3 Jahren sollte es soweit sein. Vielleicht sogar früher. Ich will also nicht zuviel für einen Monitor ausgeben, den ich sicher keine 5 Jahre nutzen werde.

    Ich hätte gerne einen neuen Monitor. Doch Welcher ist der richtige Monitor für mich?


    Sogar nach ausgiebiger Recherche bin ich mir nicht sicher. Da hier auch genug Expertise vorhanden scheint, möchte ich das Thema etwas ausführlicher angehen und vielleicht hilft es auch anderen unentschlossenen.


    Ich möchte mit meinem Nutzungsprofil beginnen, dann meinen alten Monitor vorstellen und daraus ableiten was ich brauche.


    Was mache ich also mit meinem Monitor?
    Video/Fotobearbeitung mache ich eigentlich nicht. Klar bearbeite ich mal ein paar Bilder und spiele etwas mit Photoshop, aber das rechtfertig keine Mehrausgaben.
    Ich spiele auch nicht sonderlich viel. Über das Jahr gesehen vielleicht ein Spiel um die 30-40 Std und noch zwei bis drei weitere Spiele für je nur 5-10 Std. Es sind auch keine klassischen Shooter (Spiele wie Fallout oder Skyrim zocke ich jedoch schon mal). Es wäre also Geldverschwendung nur für die paar Stunden einen teureren Monitor zu erwerben. Da nehme ich dann beim spiele auch mal ein paar Abstriche in kauf. Freesync/Gsync brauche ich also eher auch nicht oder kann mir jemand ein Argument dafür nennen?
    Was mache ich noch so? Textbasiertes. Surfen, etwas Office und Programmieren machen bestimmt 90% bei mir aus. Es kommt lediglich noch etwas Filme schauen dazu.
    Das meiste davon jedoch per Stream, die Qualität ist also nicht durchgehend hoch. Nicht jedes YT-Video ist in HD oder besser und gerade ältere Filme haben ein niedriges Ausgangsmaterial.


    Derzeit ist der W2286L im Einsatz.
    Vor über 7 Jahren für 160€ gekauft und noch funktionstüchtig.
    22 Zoll, aber 16:10 (ist also höher als 16:9 22er) hat aber nur
    1680x1050 Pixel, also fast Full HD.
    Das ganze bei 60HZ
    Es ist ein TN Pannel mit
    2ms Reaktionszeit


    Natürlich möchte ich einen IPS 4K Monitor mit 120/144Hz in 16:9 mit HDR und 1ms Reaktionszeit, aber das dafür notwendige Geld bin ich nicht bereit auszugeben. Mein Rechner wäre ohnehin zu schwach. In 2-3 Jahren könnten diese Modelle jedoch erschwinglich werden und bis dahin kauf ich sicherlich einen passenden PC. Will ich jedoch so lange warten? Eher nicht. Ich suche wohl nach einer guten Zwischstufe die keine riesigen Löcher in mein Budget reißt.


    Der neue soll diesmal in 16:9 sein und etwas größer (höher), 27 Zoll (flach, keine Kurven).
    Ein Monitor hat einfach höhenverstellbar und neigbar zu sein.
    IPS wäre schön und wohl schon eine spürbare Verbesserung zu TN, daher kann ich das Geld für HDR sparen (gerade bei meinem Nutzungsprofil) und freue mich trotzdem über eine bessere Farbdarstellung.
    Da ich auch kein großer Zocker bin wird die Einbuße bei der Reaktionszeit verkraftbar sein. Um die 4-5ms sollten es wohl jedoch sein, es fällt mir aber schwer einzuschätzen welcher Wert zu hoch ist und wo es sich lohnt ein paar Euro zu bezahlen.


    Bleiben noch Auflösung und Frequenz. Hier bin ich noch ganz unentschlossen.
    4k mit 60Hz oder doch lieber FullHD mit 120/144HZ? Oder doch ein 1440p mit 100Hz?


    Mehr als FullHD sollte es schon sein, denn ich will mich ja verbessern. 120+HZ sind bestimmt toll, aber fast schon zu gut, denn ich arbeite auch an anderen Monitoren und da will ich micht nicht aufregen, wenn ich mal an einem 60Hzer arbeite. Klingt also eigentlich nach 4k mit 60Hz oder noch besser 1440p und 100Hz, was perfekt passen sollte als Zwischenschritt von FullHd mit 60Hz auf 4k mit 120Hz, jedoch frage ich mich ob das wirklich eine gute Lösung ist.
    Die skaliebarbeit zwischen FullHD und 4k funktioniert gut, bei 1440p ist das schon nicht mehr so leicht, soll aber immer noch gut sein. Gefühlt steht man hier zwischen zwei Stühlen auch wenn die Probleme mit der Skalierbarbeit bestimmt vernachlässigbar klein sind. Vielleicht brauche ich nur eine Bestätigung.
    Gibt es einen spürbaren Sprung von 60Hz auf 75Hz oder erst auf 100Hz+?
    Fragen über Fragen...