Auflösung – welche ist die richtige?
3/3

Grundlagenartikel zum Thema Auflösung zeigt, wie man den Monitor mit der optimalen Pixeldichte (ppi) findet

7
41972

Der (teils versteckte) Preis der höheren Auflösung

Wenn wir die Auflösung immer weiter verdoppeln, mag zwar irgendwann die Grenze des Sinnvollen überschritten sein, aber schaden kann das ja nicht, oder?

Nein, aber leider hat das trotzdem seinen Preis, und der nimmt überproportional zu. Eine Verdoppelung der (wahrnehmbaren) Auflösung bedeutet viermal so viele Pixel. Dateigröße und damit Speicherplatzbedarf erhöhen sich ebenfalls um das Vierfache. Richtig heftig zu spüren bekommt das der Videograf, der von Full HD auf 4K wechselt.

Zur Bewältigung der Datenmenge ist ferner eine entsprechend leistungsfähigere Hardware erforderlich. Der Gamer denkt sofort an die Grafikkarte, die aber in der EBV bislang nur in wenigen Bereichen Beschleunigung bietet. Hier ist vor allem die CPU gefordert und mehr Speicher nötig.

Auch ist der Preis nicht nur monetär. Selbst wenn Geld keine Rolle spielt und der PC State of the Art ausgestattet ist, wissen Lightroom-Nutzer ein Lied von den quälend langen Wartezeiten beim Rendern von Vorschauen und beim Export von Bildern zu singen. Das wird beim Sprung auf einen 4K-Monitor natürlich nicht besser. Größere Vorschauen müssen gerendert werden, und im Entwickeln-Modul müssen mehr Pixel gleichzeitig geladen und berechnet werden.

Immerhin hat sich mit Version 7.2 von Lightroom Classic CC jetzt in puncto Performance doch einiges getan. Auch wenn uns Adobe hier letztendlich eine längst überfällige Fehlerbehebung als neues Feature verkauft, ist es immerhin ein Schritt in die richtige Richtung.

In Photoshop ist uns dagegen im Test kein Performance-Unterschied zwischen dem Arbeiten mit Full-HD-, QHD- oder 4K-Monitoren aufgefallen. Hier sind es primär die Auflösung der bearbeiteten Datei und die Farbtiefe (8 bpc vs. 16 bpc), die die Bearbeitungszeit in die Höhe treiben können.

Einen weiteren Preis zahlen zunächst andere. Egal ob Smartphone oder Desktop-Anwendungen, für die Software-Entwickler bedeutet es einen nicht unerheblichen Aufwand, ihre Anwendungen – vor allem die Icons und die Textskalierung – auf die höheren Auflösungen anzupassen.

Der Wechsel zu einem Monitor mit 4K-Auflösung kann daher aber auch für den Anwender schnell unangenehme Überraschungen mit sich bringen. Ältere Anwendungen, die funktional eigentlich gar kein Update bräuchten, zeigen plötzlich Skalierungsprobleme.
Auch beim OS kommt man unter Umständen nicht mit der bisherigen Skalierungseinstellung von 100 % (also keine Skalierung) aus. Beispiel: Wechselt man bei einem 24-Zöller von Full HD auf die 4K-Auflösung, dann belegen die Icons auf dem Desktop nur noch ein Viertel der bisherigen Fläche. Zwar passen jetzt doppelt so viele Icons unten in die Taskleiste, aber sie werden dafür auch fummelig klein.

Spätestens die winzige Schrift im Datei-Explorer zwingt einen, die Skalierung im OS heraufzusetzen. Bei 200 % sieht der Desktop dann wieder genauso aus wie unter Full HD – nur eben deutlich schärfer. Voraussetzung ist aber, dass sämtliche Icons bereits für höhere Auflösungen angepasst wurden. Ansonsten sehen sie jetzt recht pixelig aus.

Abgesehen davon ist die Skalierung unter Windows 10 zwar sukzessive besser geworden (zum Testzeitpunkt Version 1709), aber vor allem beim Einsatz von mehreren Monitoren mit unterschiedlichen Größen und Auflösungen kommt es dennoch immer wieder zu Problemen.

Wer viel mit mobilen Geräten unterwegs ist, wird den Preis auch bei den Akkulaufzeiten zu spüren bekommen. Der Stromverbrauch ist zumindest aktuell bei höher auflösenden Displays größer, sodass sonst baugleiche Geräte mit Full-HD- statt 4K-Auflösung in der Regel merklich länger durchhalten.

Unterschiedliche Auflösungen bei Multi-Monitor-Systemen

Optimalerweise verwendet man für ein Multi-Monitor-System eine entsprechende Anzahl der gleichen Geräte vom gleichen Hersteller. Hersteller wie EIZO, LG und Dell bieten dafür auch Zusatzsoftware an, mit der sich die OSD-Einstellungen für alle Geräte auf einen Schlag synchronisieren lassen.

Nicht jeder hat dafür ad hoc das Geld, und wer sich einen neuen QHD-27-Zöller anschafft, möchte vielleicht auch seinen bisherigen 24-Zoll-Full-HD-Monitor weiternutzen. Generell empfiehlt es sich hier natürlich, Helligkeit und Farbtemperatur möglichst gut aneinander anzugleichen – am besten mit einer Kalibrierung.

Solange man für beide Geräte dann im OS die gleiche Skalierungseinstellung verwenden kann, klappt das sehr gut. Sind die Skalierungseinstellungen aber unterschiedlich, ist zumindest das Fensterverschieben von einem Monitor auf den anderen nicht so flüssig, wie man das sonst gewohnt ist. Nervig kann es auch werden, wenn nicht alle Geräte ständig eingeschaltet sind oder unterschiedlich aus dem Stand-by aufwachen. Dann werden ggfls. sämtliche Fensteranordnungen durcheinandergeworfen und bestimmte Anwendungen teilweise falsch skaliert.

In den beiden Abbildungen unten sieht man z. B., wie beim Verschieben eines Fensters vom rechten Bildschirm (QHD-Auflösung, OS-Skalierung bei 100 %) auf den linken Bildschirm (4K-Auflösung, OS-Skalierung bei 150 %) plötzlich die Skalierung der Fenstergröße umspringt.

Fensterverschieben von QHD mit 100%-Skalierung nach 4K mit 150%-Skalierung (4K-Monitor)
Fensterverschieben von QHD mit 100%-Skalierung nach 4K mit 150%-Skalierung (QHD-Monitor)
Fensterverschieben von QHD mit 100%-Skalierung nach 4K mit 150%-Skalierung
Fensterverschieben von QHD mit 100%-Skalierung nach 4K mit 150%-Skalierung

Welche Monitore/Auflösungskombinationen sich nach unserer Erfahrung gut miteinander vertragen und welche weniger gut, zeigen wir in den abschließenden Empfehlungen.

Fazit

Der analogen Realität können wir uns mit der mosaikartigen Zerlegung in ein digitales Raster zwangsläufig nur annähern – je höher die Auflösung, desto besser. Wie hoch die Auflösung tatsächlich ist, lässt sich aber erst in Verbindung mit der Display-Größe aussagekräftig beurteilen. Technisch gesehen gibt die ppi-Angabe darüber Auskunft.

Wechselt man von einem Full-HD-Monitor mit 92 ppi auf ein 4K-Gerät mit 184 ppi, fällt der Unterschied sofort auf. Insbesondere Texte wirken wesentlich glatter und schärfer. Gleichzeitig wird auch die Genauigkeit und damit Bilanz der Farbdarstellung durch höhere Auflösungen verbessert.

Umgekehrt haben hohe Auflösungen jedoch auch ihren Preis, der sogar überproportional zunimmt. Daher sollte man beim Wunsch nach mehr Auflösung auch die Sinnhaftigkeit nicht aus den Augen lassen.

Diese hängt zum einen vom Betrachtungsabstand und zum anderen vom individuellen Sehvermögen ab. Um die hohe Auflösung des Displays auch wirklich voll ausnutzen zu können, brauchen wir ferner Eingangsmaterial, das seinerseits bei Auflösung und Qualität mithalten kann.

Bitte lesen Sie weiter in Teil 2 unserer Kaufberatung: „Kernmerkmalen eines Monitors: Größe, Format und Auflösung„. Weitere Informationen finden Sie in unserer Kaufberatung Monitore oder in den Top 10 Bestenlisten.

 

Gefällt Ihnen dieser Beitrag ?

96%
gefällt es

7 KOMMENTARE

  1. Danke für diesen schon recht guten Bericht, der die Sache versucht genauer zu beleuchten, um nicht Marketing-Tricks auf den Leim zu gehen!

    Ich habe einen älteren Acer 23″-Schirm mit Full-HD, also 96 ppi Pixeldichte und bin sehr zufrieden damit. Skalieren ist für Windows, egal welche Version, nach wie vor ein Problem, und für Leute mit mehreren Monitoren sowieso. Wer hochskaliert, läuft immer Gefahr, dass Informationen in Fenstern nicht mehr vollständig angezeigt werden (manchmal ohne dass man es erkennen kann). Für mich also keine echte Option da was umzustellen. Kann mir auch vorstellen, dass so ein Upscaling im OS auch noch einiges an GPU/CPU Leistung kostet.

    Für einen Neukauf stellt sich daher jetzt die große Frage: Nochmals bewährte 23″ Full-HD mit völlig ausreichenden 96 ppi, oder 24″ mit Full-HD = nur 92 ppi und vielleicht dann schon pixelig erscheinend, oder 27″ mit Q/WQ-HD (2560×1440) mit 109 ppi, also alles noch etwas fuzzeliger, als es eh schon ist.

    Bei den nächsten Monitoren (jenseits Full-HD) bekommt man vermutlich eine Lupe und ein Brillenabo dazu. Microsoft hat (neben allen Smartphone-Herstellern) übrigens zahlreiche Aktienanteile bei den weltweit größten Brillenherstellern (und wenn das nicht stimmt, habe ich es gerade plausibel und nachvollziehbar erfunden).

    Jedenfalls ist die Entscheidung nicht leicht, da man Hardware nicht einfach testen kann. Dafür gibt´s Testberichte/Vergleiche, die ich jetzt leider woanders aufstöbern muss um das große Puzzle zusammenzusetzen.

    Weitere, klitzekleine Fragen werden dann auch noch zu klären sein: Reichen plötzlich die 60 Hz? Früher waren die 75 Hz-CRTs deutlich besser (sichtbar flimmerfreier)! IPS oder moderneres E-IPS/Samsung-PLS? Blaulichtfilter (sehe ich dann überhaupt noch blau??)? Matte oder glänzende Oberfläche? Diplayport und/oder Thunderbolt? Schmaler Rahmen für 2. Monitor? Und das Wichtigste: Zahlt mir die Industrie diesen Recherche-Aufwand?

  2. Und wo sind nun die Empfehlungen hinsichtlich der passenden Kombinationen? Ich kann sie beim besten Willen nicht finden und wäre so daran interessiert… Oder muss ich selbst rechnen?

  3. Die Diskussion bzw. den Beitrag sollte man auch einmal aufs Gaming und auch 4K-UHD erweitern. Ich finde es immer unterhaltsam, wenn Trolle von 4k-Gaming quatschen und teilweise ebenso Spiele- und Pseudo-Hardware-Magazine/-seiten (zugegeben, bei den HighEnd-Grafikkarten weisen die ach so schicken Vergleichsgrafiken bei FullHD mit Ultra-Einstellungen keinen nennenswerten Unterschiede mehr auf … also zaubert man welche herbei, damit man was zu unterscheiden und zu bereichten hat).
    Gerade schnelle Spiele wie Shooter (und auch RTS, die auch mehr Klickorgien gleichkommen) sind dafür geradezu prädestiniert. Ein Battlefield 4 in FullHD mit vollem AA oder muss es doch eher unbedingt 4k-Auflösung sein? Was unbestreitbar ist, ist das letzteres wesetnlich mehr Geld kostet: der Monitor (120 oder 144 Hz in 4K wird schon „schwierig“) und die Grafikkarte, die plötzlich ein Vielfaches der bisherigen Pixelzahl berechnen muss. Und übermäßig auffallen wird der Unterschied bei gleich großen Monitoren nicht wirklich, sondern erst, wenn man sich einmal die Zeit nimmt und sich einzelne Bildbereiche genau ansieht … nur ist man dann auch schon virtuell tot oder in der Zeit hat der Gegner fleißig so viele Einheiten gebaut, dass die eigene Armeen überrannt wird. (Interessant auch die Steam-Statistiken, die weiterhin unter 1 % der Teilnehmer mit einem 4k-Monitor ausweisen, ergo „gefühlt“ reden alle darrüber aber tatsächlich hats kaum einer.)
    Ähnliches betrifft auch 4K bei Blu-rays, sog. UHD-Disk. Es ist überaus sinnvoll sich Hollywoods schnellen, achtionlastigen Einheitsbrei unbedingt in 4K ansehen zu wollen. Selbst wenn man die über 80″ betrachtet, braucht es schon mehr als typische 42 ms pro Frame, um sich die Bilddetails anzusehen. (Nicht umsonst werden im Saturn und Media Markt i. d. R. meist (nahezu) Still-Szenen (mit übersättigten Farben) zur Demonstration verwendet). Das menschliche Auge in Verbindung mit dem Gehirn nimmt im pheripheren Bereich keine Details mehr wahr; wenn uns dort etwas zu interessieren scheint, müssen wir erst unseren Fokus darauf richten um es genau zu erkennen. … aber naja, 8k sind ja bereits im kommen :-/

    Für den Büro- oder bspw. Content-Development-Bereich ist eine größere Bildfläche dagegen für den Multi-App-Betrieb immer hilfreich, entweder als Multi-Monitor-Setup (sinnvollerweise mit vergleichbarer ppi und mit schmalen Monitorrändern) oder bspw. als 21:9-Curved-Breitbildmonitor mit min. 1440 Pixeln vertikal. Sinnvoll ist aber auf jeden Fall der Hinweis bzgl. der Berücksichtigung der eigenen Sehfähigkeiten (Büro-/Computerarbeit == vielfach Brille, zum. auf Dauer). Zumindest im Büro lässt sich hier sparen, denn extreme ppi-Zahlen darstellen zu können, nützt meist wenig, wenn man dann das UI auf eine 400 %-Skalierung stellt.

    Und (später) für VR werden hochauflösende Displays ein muss sein, denn so nah, wie dieses an der Netzhaut ist, treten hier bisher immer noch einzelne Pixel sehr deutlich zu Tage, jedoch muss die Technik und vor allem auch die Entertainment-Industrie noch kräftig nachlegen um echten Bedarf zu schaffen (abseits einiger jetzt schon sehr sinnvoller, industrieller Anwendungen).

    VG

  4. Der Autor scheint doch eine gewisse Ahnung vom Technischen zu haben. Dann aber das Schrifttestbild als JPG (natürlich mit Subsampling) abzuspeichern und dadurch Kompressionsartefakte einzubauen, da zuckt mir stark die Face-Palm-Hand.

    Wahrscheinlich wäre ein PNG sogar kleiner gewesen.

    • Dass man sich das Testbild selbst erstellen muss und wie es geht ist im Text beschrieben.
      Die Abbildung dazu dient lediglich zur Verdeutlichung. Ein Downsambling hat nicht stattgefunden. Im Vergleich zu einem png mögen zwar ab der 400%-Ansicht in weißen Bereichen Kompressions-Artefakte sichtbar sein. Um zu verstehen, worum es geht, dürfte dennoch nur Ausnahmeerscheinungen schwer fallen.

Diskussion: Neuen Beitrag verfassen