Monitor für Filmschnitt (web) und Photoshop gesucht

  • Hallo,


    ich suche einen Ersatz für den bislang von mir genutzten 24" Samsung Syncmaster 244T. Seit geraumer Zeit beschäftige ich mich mit Film und Filmschnitt, sowie Fotografie. Im letzten Jahr habe ich mir einen neuen Rechner angeschafft, den ich vornehmlich als Hackintosh nutze. Ich fühle mich mit OSX einfach wohler als mit Windows... Anyways, ich such nun nach einem Monitor, der eine bessere Farbdarstellung hat als der Samsung. Dies gilt vor allem für Photoshop, Final Cut Pro X, Motion und Davinci Resolve. Ich arbeit in allen vier Programmen und möchte entprechen halbwegs vernünftiger Ergebnisse erzielen. Die Filme werden vornehmlich für's Netz produziert, Fotos gehen eher schon Mal in den Druck.


    Mein großes Problem ist, dass ich mich in Sachen Farbmanagement nicht wirklich auskenne und auch kaum wirklich gut beschriebene Literatur darüber finde. Daher bin ich natürlich auch etwas aufgeschmissen, was die Beurteilung der nötigen Monitore angeht. Mindestens 24 Zoll sollte der Monitor schon haben, 27 Zoll, wenn der Preis stimmt.


    Ich freue mich auf zahlreiche Hilfestellungen.


    Gruß


    Herbster

  • Wegen dem Filmkrams brauchst einen Monitor der sauber sRGB kann.
    Für Photographie und Drucken wäre aber ein Widegamut (also eher Adobe RGB) besser um das zu sehen was die Kamera liefert und um Drucke vorher per Softproof beurteilen zu können.
    Das Optimale wäre dann ein Widegamut Monitor der eine saubere sRGB Emulation hat und sich leicht umschalten lässt.
    Im 27" Bereich würde ich mal die Testberiche für Dell 2713H, LG 27EA83, Eizo EV2736WFS-BK und NEC PA271W lesen...
    Dann kommt es halt auf Dein Budget und Deine Qualitätsansprüche an....


    cheers
    afx

  • Hallo afx,


    vielen Dank für Deine Antwort. Ich habe mir die Monitore mal angesehen und tendiere eher zum Dell. In anderen Worten, ich würde vorerst das günstige Modell nehmen. Günstig deshalb, weil ich damit kein Geld verdiene und die Videos primär vor mir bestand haben müssen. Ein vernünftige Farbdarstellung reicht mir da erst einmal. Da der LG und der Dell allerdings sich preislich nicht viel tun, welchen würdest Du für diese aufgabe nehmen?


    T


    PS: Hast Du einen Tipp, wo man sich im Web über Kalibrierung belesen kann? Ich denke es würde mir extrem weiterhelfen, wenn ich die Materie verstehen würde. Da ich ursprünglich aus dem Printbereich komme, ist RGB für mich relativ fremd.

  • Da der LG und der Dell allerdings sich preislich nicht viel tun, welchen würdest Du für diese aufgabe nehmen?


    Schwierig. Ich habe die ja selber noch nicht in den Fingern gehabt. Vermutlich eher den Dell aus dem Bauch raus. Schau Dir auch mal die Videos zu den Bildschirmen an. Wenn ich mich recht erinnere ist LG z.B. so doof senkrechte Steckverbinder zu verwenden statt welche die parallel zum Gehäuse sind.


    Ich persönlich hatte die beiden Bildschirme auch auf meiner Wunschliste. Für mich war dann die ungleichmäßige Ausleuchtung und die eher schlampig gemachte Hardwarekalibrierung der Grund doch mehr Geld für einen NEC (ich habe dem 30" für den Preis des 27" bekommen ;-) in die Hand zu nehmen...


    Quote

    PS: Hast Du einen Tipp, wo man sich im Web über Kalibrierung belesen kann? Ich denke es würde mir extrem weiterhelfen, wenn ich die Materie verstehen würde. Da ich ursprünglich aus dem Printbereich komme, ist RGB für mich relativ fremd.


    Ich persönlich finde die Cambridge in Colour Seiten recht brauchbar.


    Die Basics sind eigentlich recht einfach:
    Um Farben korrekt darzustellen muss ein Programm wissen wie ein bestimmter Monitor Farben darstellen. Dazu wird der Monitor vermessen (mit einem Colorimeter oder einem Spektrometer) und ein Profil generiert das dann von Programmen die Farbmanagement können verwendet wird.
    In den meisten Fällen wird aber nicht nur einfach die Charakteristik des Monitors aufgenommen, sondern versucht eine definierte Baseline zu setzen. Das heißt die Farbtemperatur und u.U. auch den Farbraum, das geschieht dann durch Kalibrieren vor dem Profilieren.
    Die Software des Messinstrumentes macht das alles in einem Rutsch und packt dann auch die Kalibrierdaten mit in das Profil mit denen die Graphikkarte dann geladen wird, außer man verwendet einen Monitor und die passende Software für Hardwarekalibrierung, da wird dann die Anpassung direkt in den Monitor geladen.


    Und zum Thema Arbeitsfarbraum habe ich mal meine Meinung hier zusammengefasst:


    cheers
    afx

  • was hälst Du von dem Dell U2411? Bin mir irgendwie unsicher, ob ich die 27" unbedingt brauche? Wäre das ein Alternative?


    Der is schon etwas ältlich, Nachfolger wäre der U2413H.


    Wobei ich seit dem ich zuhause den 30" habe nie wieder was kleineres will. Der Büroalltag an 24" is sowas von nervig im Vergleich dazu.
    Bei einem großen Schirm sieht man Timelines in Audio und Videoschnitt besser. Bilder lassen sich besser beurteilen, es lassen sich wirklich drei A4 Seiten nebeneinander darstellen und bei der hohen Pixeldichte der 27"+ Schirme (mit 2560x1440 bei 27") funktionieren moderne Schriften besser da sie mit feineren Pixeln dargestellt werden können (Ausnahme: die Masse der doofen Webseiten die Schriftgrößen in Pixel statt Punkten angeben, da wird der Vorteil durch den Zwang zum Zoomen wieder reduziert).


    cheers
    afx

  • Ok, ich denke das sehe ich ein. Zumal ich mittlerweile ein echt gutes Angebot für den den Dell 27" gefunden habe und noch die Vorsteuer ziehen kann, wenn ich den Monitor über die Firma kaufe. Der wird es dann wohl werden. Danke für die Hilfe und die Links.


    T

  • Mal eine blöde Frage zum Thema "ältlich". Im Grunde ist eine Monitor der vor fünf Jahren gut und farbecht war, doch heute immer noch gut und farbecht, oder täusche ich mich da?


    T

  • Mal eine blöde Frage zum Thema "ältlich". Im Grunde ist eine Monitor der vor fünf Jahren gut und farbecht war, doch heute immer noch gut und farbecht, oder täusche ich mich da?


    Wenn er beim regelmäßigen (mindestens monatlich) kalibrieren/profilieren immer noch saubere Resultate liefert ja.
    Aber die CCFL Hintergrundbeleuchtung altert im Laufe der Zeit, so dass mit zunehmendem Alter das Risiko besteht, dass die zu schwach wird und irgendwann reicht es dann halt nicht mehr.


    cheers
    afx

  • und bei der hohen Pixeldichte der 27"+ Schirme (mit 2560x1440 bei 27") funktionieren moderne Schriften besser da sie mit feineren Pixeln dargestellt werden können (Ausnahme: die Masse der doofen Webseiten die Schriftgrößen in Pixel statt Punkten angeben, da wird der Vorteil durch den Zwang zum Zoomen wieder reduziert).

    Das hat nichts mit der Maßeinheit zu tun, zumal Punkte (pt) genauso wie Pixel eine fixierte Maßeinheit darstellt. Allerdings selbst bei relativen Maßen wie em und % wird sich der Font ebenfalls nicht vergrößern, nur weil du die Page mit einer höheren Auflösung anschaust, jedenfalls nicht von alleine. Dazu benötigt es einen entsprechende Kalibrierung bekannt als modernes Schlagwort "Responsiveness", angemessen zu der jeweiligen Screen Size unterschiedliche Basiswerte der Font Size.


    Pt ist im Web eine äußerst antiquierte und inakkurate Art Fonts darzustellen bzw. skalieren, da sie relativ zu Inch bemessen wird...Inches aufm Screen...

  • Das hat nichts mit der Maßeinheit zu tun, zumal Punkte (pt) genauso wie Pixel eine fixierte Maßeinheit darstellt.


    Ich glaube Du bringst da was durcheinander.
    pt ist eine fixe Maßeinheit. Die Größe von Pixeln ist vom Monitor abhängig....


    D.H. es werden Fonts die in Pixeln angegeben wurden auf hochauflösenden Monitoren entsprechend winzig dargestellt.
    Das Problem habe ich mit meinem 144PPI Laptop konstant....
    Wenn mal gelegentlich ein Webdesigner fähig ist das richtig zu machen verschwindet das Problem, aber das passiert seltenst....


    cheers
    afx


  • Ich glaube Du bringst da was durcheinander.
    pt ist eine fixe Maßeinheit. Die Größe von Pixeln ist vom Monitor abhängig....


    D.H. es werden Fonts die in Pixeln angegeben wurden auf hochauflösenden Monitoren entsprechend winzig dargestellt.
    Das Problem habe ich mit meinem 144PPI Laptop konstant....
    Wenn mal gelegentlich ein Webdesigner fähig ist das richtig zu machen verschwindet das Problem, aber das passiert seltenst...

    Ganz im Gegenteil, ich glaube du mischt hier deine Erfahrung im Print Bereich und deiner technischen Kompetenz mit den Möglichkeiten im web development.


    Per CSS werden pt fixiert zu 1/72 Inch dargestellt, das hat nichts mit der Pixeldichte des Monitors zu tun, da Browser nicht fähig sind die Pixeldichte akkurat zu kalkulieren wird immer vom std. 72pt/Inch ausgegangen werden, egal wie die tatsächliche Screen Res ist.


    D.h. 18px Font wird genauso dargestellt wie das PT Äquivalent, welches aber unheimlcih mies auszurechnen ist, egal bei welcher Pixeldichte/Auflösung.


    Pt und Px werden per Maßeinheit gleich kalkuliert, nur ebend in einem anderen Verhältnis, sind aber beides fixe Maßeinheite, die "nicht" resized werden können - außer ebend durch Media Queries (wie bereits vorher erwähnt, Sitchwort Repsonsiveness), dabei ist es wieder egal welche Maßeinheit man nimmt - wobei natürlich relative Maße wie em und % nur durch die Änderung eines Basiswerts verändert werden können.


    Das was du als "gutes Design" wahrnimmst sind gute Media Queries, die ebend nicht nur nach unten Richtung mobile resolutions angelegt sind, sondern ebend auch nach oben Richtung 1440p !


    Das ist immernoch selten, wobei ich das überall implementiere, da ich generell nur mit relativen Einheiten code (em).


    Pt ist ein grausames Maß für digitale Medien, da viel zu ungenau ! Inches ist eine Maßeinheit für die echte Welt, aber nicht für den digitalen space !

  • CSS hat damit gar nix zu tun. 1/72 Inch ist spätestens seit dem Vormarsch von DPT die Standardgröße für 1 PT, siehe


    Meine Website sieht auf dem 96PPI Desktop genauso aus wie auf meinem 145PPI Laptop. Ohne irgendwelchen Erkennungs-Schnickschnack. Einfach nur vernünftige Font-Spezifikation in PT statt PX.


    Simple Beispiel:
    Auf dem 96PPI Desktop schauen beide gleich groß aus, auf dem 145PPI Laptop is die in PX angegebene Schrift nicht benutzbar,
    die in PT angegeben Schrift dagegen passt.


    cheers
    afx

  • [quote='afx',index.php?page=Thread&postID=376457#post376457]CSS hat damit gar nix zu tun. 1/72 Inch ist spätestens seit dem Vormarsch von DPT die Standardgröße für 1 PT, siehe Simple Beispiel: http://www.afximages.com/tmp/10pt.html
    Auf dem 96PPI Desktop schauen beide gleich groß aus, auf dem 145PPI Laptop is die in PX angegebene Schrift nicht benutzbar,
    die in PT angegeben Schrift dagegen passt.
    Hm... nein, nicht bei 96dpi. Weil 10pt != 10px. Bei 96dpi würden wir von 10*96/72=13.34px reden.


    Aber ja, ich gebe dir definitiv recht, insofern auch nur 5% der User tatsächlich wissen würden, wie ihre DPI des OS einzustellen ist. Denn das mache selbst ich nicht, muss ich zugeben. Bei mir läuft ebenfalls alles auf std (Mac 72 und Win 96dpi) und danach werden beide Fonts identisch gerendered.


    Wer natürlich weiß, wie man seine DPI gemäß dem Monitor einstellt, ja die paar wenigen werden einen automatischen Effekt merken, allerdings würde dieser bei allen "einheitlich" bleiben, wenn einfach ein relatives Maß wie em/% auf ein Basiswert verwendet wird.

  • Das hat sehr wohl was mit CSS zu tun, da die font-size eine CSS unit ist... alles was du machst um HTML zu stylen ist CSS.
    Wie ich bereits schrieb, pt = 1/72 inch...


    Simple Beispiel:
    Auf dem 96PPI Desktop schauen beide gleich groß aus, auf dem 145PPI Laptop is die in PX angegebene Schrift nicht benutzbar,
    die in PT angegeben Schrift dagegen passt.


    Hm... nein, nicht bei 96dpi. Weil 10pt != 10px. Bei 96dpi würden wir von 10*96/72=13.34px reden.


    Aber ja, ich gebe dir definitiv recht, insofern auch nur 5% der User tatsächlich wissen würden, wie ihre DPI des OS einzustellen ist. Denn das mache selbst ich nicht, muss ich zugeben. Bei mir läuft ebenfalls alles auf std (Mac 72 und Win 96dpi) und danach werden beide Fonts identisch gerendered - unerheblich welcher Monitor das Bild anzeigt.


    Wer natürlich weiß, wie man seine DPI gemäß dem Monitor einstellt, ja die paar wenigen werden einen automatischen Effekt merken, allerdings würde dieser bei allen "einheitlich" bleiben, wenn einfach ein relatives Maß wie em/% auf ein Basiswert verwendet wird.

  • Wegen dem Filmkrams brauchst einen Monitor der sauber sRGB kann.
    Für Photographie und Drucken wäre aber ein Widegamut (also eher Adobe RGB) besser um das zu sehen was die Kamera liefert ...


    Also ich sehe den riesen Vorteil von Adobe RGB über sRGB nicht.
    Der ist ja primär optimiert für Druck und deckt den Wide Gamut Farbraum somit auch nicht ab:


    Wikipedia schreibt:
    "Durch Adobe wurden 1998 Überlegungen umgesetzt, dass es möglich werden sollte, alle beim Druck relevanten Farben des CMYK-Farbraumes im neuen Adobe-RGB-Gamut darzustellen.
    Gegenüber sRGB ergeben sich deutliche Verbesserungen bei den Türkis- und Grün-Tönen. Allerdings hat man die Primärvalenzen so gelegt, dass die Darstellung von gesättigten Rottönen sich kaum verbessert hat, die von gesättigten Blautönen sogar leicht verschlechtert. Auf die Darstellung der häufiger auftretenden weniger gesättigten Töne macht sich die Umstellung aber nicht bemerkbar.
    Der Kompromiss bestand darin, dass auf die Praxis abgestimmt ein Ausgleich in den häufigsten Farbwiedergaben in der Praxis gesucht wurde. Bei der Wiedergabe realer Bilder treten die hochgesättigten Farben seltener auf als die weniger gesättigten. Die Bildqualität bei der überwiegenden Anzahl von Farbwiedergaben ist hinreichend gut.
    Der besondere Vorteil war, dass nahezu alle Farben des CMYK-Siebenfarbendrucks im RGB-Raum darstellbar sind."


    Relativiert das nicht die Aussage, dass man einen Wide Gamut Bildschirm braucht, um das Potenzial seiner Fotos sehen zu können? Realisiert man das den wirklich oder ist das eher auf der Stufe von Pixelpeeping anzusehen (bei dem Leute mit der Lupe absurderweise über die Unschärfen ihrer Pro-Linsen diskutieren...).
    Damit man bei 2-3 Fotos von 1000 eine grüne Wiese irgendwie noch nen Tick "grüner" als sonst eventuell sehen könnte, gibt man sich doch als ambitionierter Hobbyfotograph (was ja die meisten User, denen ein Wide Garmut empfohlen wird, letztlich hier sind) nicht den ganzen Krampf mit dem Profil-Gewurschtel und dem doppelten Preis für potente Hardware (NEC + Messgerät)? Mal abgesehen von dem dadurch weiter erhöhten Zeitaufwand. Klar, Profis haben keine Wahl, davon spreche ich hier nicht.


    Ich sehe bis jetzt nicht "den" Unterschied zwischen einen sRGB von einem in Wide Gamut bearbeiteten Bild. Von daher ist das vieleicht doch eher alles eine rein theoretische Angelegenheit?!

  • Das hat sehr wohl was mit CSS zu tun, da die font-size eine CSS unit ist... alles was du machst um HTML zu stylen ist CSS.
    Wie ich bereits schrieb, pt = 1/72 inch...

    Du hast oben behauptet dass die 1/72 Zoll Definition von CSS kommt, das ist einfach falsch. Die 1/72" sind viel älter als CSS.
    Das is ganz was anderes als die Aussage, dass Font-Größen mit CSS spezifiziert werden, darum geht's doch gar nicht.


    Quote

    Hm... nein, nicht bei 96dpi. Weil 10pt != 10px. Bei 96dpi würden wir von 10*96/72=13.34px reden.

    Die exakte Rechnung setzt voraus, dass eine exakte Skalierung stattfindet. Tut es aber nicht.
    Wie gesagt, auf meinem großen Schirm sehen beide gleich groß aus. Es geht hier nicht darum zu sagen dass bei einer bestimmten Bildschirmgröße was identisches raus kommt, sondern darum zu Zeigen, dass PT und PX total unterschiedlich reagieren und bei einer PT Spezifikation der Text lesbar in einer vernünftigen Größe bleibt ohne dass irgendeine zusätzliche Logik bemüht werden muss.


    Und die PPI des OS sind bei Linux Systemen typischerweise korrekt, bei Windows Systemen kannst Du Dir das bei kleinen Abweichungen in die Haare schmieren, da dann das Windows Font-Scaling kaputt geht (meinen 30" sollte ich korrekterweise mit 104% betreiben, aber dann funktionieren die Systemschriften an diversen Stellen nicht mehr und sind nur noch grausam). D.H. das is mit der Skalierung ist auch nur eine Pi*Daumen Geschichte.


    cheers
    afx

  • Also ich sehe den riesen Vorteil von Adobe RGB über sRGB nicht.
    Der ist ja primär optimiert für Druck und deckt den Wide Gamut Farbraum somit auch nicht ab:


    Ja und?
    Das gedruckte Bild noch immer das Maß aller Dinge, nicht die unsäglichen winz-JPGs mit denen das Web überflutet wird. Und je näher Deine Bildschirm-Darstellung an dem ist, das die Kamera aufnehmen kann, desto eher siehst Du was im Bild steckt. ProPhoto Schirme gibt es leider nicht ;-(


    Stelle 'nen Wide Gamut Monitor neben einen sRGB Schirm und schau Dir mal darauf das Bild einer Rose an. Der Unterschied ist sehr deutlich zu sehen.
    Und zum Thema Arbeitsfarbraum siehe auch:
    Es ist so einfach so was selber zu testen.
    Aber statt dessen labern sich die Leute in Foren tot drüber.


    Quote

    Realisiert man das den wirklich oder ist das eher auf der Stufe von Pixelpeeping anzusehen (bei dem Leute mit der Lupe absurderweise über die Unschärfen ihrer Pro-Linsen diskutieren...).


    Im 1:1 Vergleich sind die Farbunterschiede deutlicher als Schärfeunterschiede, bei denen musst Du oft genauer hin schauen...


    Aber bei dem besch... Inhalt der meisten Bilder ist das natürlich auch egal.


    Quote

    Krampf mit dem Profil-Gewurschtel


    Den hat man doch so oder so. Alle RAW Konverter verwenden intern ProPhoto oder Varianten davon. D.H. ohne sauberes Farbmanagement ist die Anzeige für'n A....


    Quote

    und dem doppelten Preis für potente Hardware (NEC + Messgerät)?


    Du brauchst für den breiten Farbraum keinen PA271W, ein Dell 2713H tut es auch wenn es nur darum geht. Und wenn man dann noch günstiger werden will, kann man ja auch 'nen 24" nehmen.


    Wobei meine Priorität sicher eher bei einem sauber ausgeleuchteten Bildschirm mit homogener Farbwiedergabe liegt und nicht bei Wide Gamut. Aber die Schirme die das am besten machen, haben üblicherweise auch einen breiten Farbraum oder kosten genauso viel wie Wide-Gamut Schirme.


    Und Photographen ohne kalibrierten Schirm kann ich ich nicht ernst nehmen, dazu habe ich schon zu viele Beschwerden über schlechte Darstellung eines RAW-Konverters gesehen, die allesamt voll daneben waren, da das Problem ein nicht kalibrierter Bildschirm des Users war und nicht der Konverter.


    cheers
    afx

  • Stelle 'nen Wide Gamut Monitor neben einen sRGB Schirm und schau Dir mal darauf das Bild einer Rose an.


    Ich glaub, dass ist mein Problem - es gibt eben kaum die Möglichkeit, so etwas mal selbst zu testen. Außer man bestellt sich einen Wide Gamut Monitor und findet dann auch noch zufällig das passende Foto, welches das aufzeigt - und das alles noch im Rahmen der Rückgabe-Garantie (also keine übermäßige Nutzung des Monitors). Da ist die Hürde halt groß. Rein logisch leuchtet mir das Prinzip schon ein, dass man mehr Reserven bekommt - ist ja ähnlich wie mit den Kontraststufen im RAW, die bei Über- und Unterbelichtung helfen und im JPEG auch ausbrennen oder absaufen. So stelle ich mir das in etwa vor.


    Wie kann ich das am Besten nun in der Praxis testen?


    Ich mach meine Fotos übrigens alle in RAW und konvertiere mit Canon DPP, da ich glaube, dass der canon-interne Converter das meiste rausholt aus den Fotos.